Значение слова "DEZIMALSYSTEM: DIE ERFINDUNG DER NULL" найдено в 1 источнике

DEZIMALSYSTEM: DIE ERFINDUNG DER NULL

найдено в "Universal-Lexicon"

Dezimalsystem: Die Erfindung der Null
 
16
 
Der Begriff »Null« ist uns im Deutschen ganz geläufig. Umgangssprachliche Redewendungen wie »null und nichtig« oder »Er ist eine Null« charakterisieren die Bedeutung des Begriffs. Aber woher stammen das Wort und seine Bedeutung? Wir müssen uns dafür in Gebiete begeben, in denen Zahlen eine Rolle spielen: die Astronomie und die Mathematik.
 
Es ist allgemein bekannt, dass die von uns gebrauchten Ziffern 1, 2, 3. .. »arabisch« sind und letztlich aus Indien stammen. Aber es hat auch außerhalb des von Indien her überkommenen Rechnens eine Form der Null gegeben.
 
 Das alphanumerische Zahlsystem der Griechen
 
Die Griechen der Antike, unsere Lehrmeister auf so vielen Gebieten des Wissens, schrieben Zahlen üblicherweise voll in Worten aus. Diese Notierung war natürlich für Zahlentabellen, zum Beispiel in der Astronomie, nicht geeignet. In der Astronomie war und ist bis heute das sexagesimale System auf der Basis 60 gebräuchlich; wir haben es von den Griechen und diese hatten es von den Babyloniern übernommen. Ein Großkreis am Himmel wie die Ekliptik, der Äquator oder der Meridian wird in 360 º geteilt, jeder Grad in 60 Minuten ('), jede Minute in 60 Sekunden ('').Für die Notierung solcher Werte kam bei den Griechen ein alphanumerisches System in Gebrauch: α bezeichnete 1, β 2, und so weiter bis ι (10), dann folgten die Zehner bis 90 (Koppa) und die Hunderter bis 900 (Sampi). Dieses System enthielt also schon ein dezimales Element, war aber noch weit von unserem Dezimalsystem entfernt; die Einer sowie jede dezimale Einheit von 10 bis 900 wurden durch je ein eigenes Zeichen markiert. Der Ursprung dieses Systems ist noch nicht endgültig geklärt. Die Griechen benutzten dabei nicht ihr gewöhnliches Alphabet, das sie aus semitischen Modellen abgeleitet haben, sondern wendeten darin drei an sich ausgestorbene Zeichen an und folgten damit ganz eng der Sequenz des altsemitischen Alphabets. Es ist noch nicht endgültig geklärt, ob diese Notierung von Zahlen von den Griechen selbst erfunden oder - wie die Buchstaben an sich - von einem semitischen Vorbild übernommen ist. Auf jeden Fall werden auch im Syrischen, Hebräischen und Arabischen die Buchstaben in derselben Weise und in der Reihenfolge des altsemitischen Alphabets zur Zahlennotierung verwendet.
 
Wenn nun in astronomischen Tabellen, zum Beispiel bei den Koordinaten von Sternen, die in Grad und Minuten angegeben wurden, ein Wert von 0 º30' oder 9 º0' verzeichnet werden sollte, so ließ man offensichtlich in der betreffenden Spalte zunächst links oder rechts den Platz der Grad oder Minuten leer. Dann ging man dazu über, zunächst für die Grade, später auch für die Minuten, ein eigenes Zeichen für »Nichts« einzusetzen. Es bestand aus einem kleinen Kreis, über den ein Strich gesetzt wurde, später auch aus einer Ligatur aus Omikron mit einem darüber gesetzten Ypsilon - die ersten beiden Buchstaben des griechischen Wortes für »Nichts«. Im Laufe der historischen Entwicklung haben auch die Araber, zum Beispiel bei der Übersetzung griechischer astronomischer Werke wie des »Almagest« von Ptolemäus aus dem 2. Jahrhundert n. Chr., ein analoges Zeichen angewendet, und Gerhard von Cremona, der den »Almagest« in der 2. Hälfte des 12. Jahrhunderts in Toledo aus dem Arabischen ins Lateinische übersetzte, verwendete ein ähnliches Zeichen für den Nullwert der Grad oder Minuten. Hier haben wir also eine Art sexagesimaler Null, die aber noch nicht unsere bekannte dezimale Null ist.
 
Soweit gab es also, bei den Griechen und später bei den Arabern, nur die umständliche Notierung von Zahlen entweder in Worten oder mit dem alphanumerischen System der Zahlbuchstaben.
 
 Die Notierung der Zahlen mit neun Zeichen
 
Außerhalb des mediterranen Kulturkreises wurde aber eine großartige Erfindung gemacht, die das gesamte Zahlen- und Rechensystem revolutionierte. In Indien kam man auf die Idee, dass sich, bei exakter Anwendung eines dezimalen Stellensystems, alle ganzen Zahlen beliebiger Größe durch nur neun Zeichen ausdrücken lassen. Wann diese Erfindung gemacht wurde, ist nicht genau greifbar; die Meinungen der Forscher gehen hier stark auseinander. Die älteste Erwähnung des neuen, genialen Systems außerhalb Indiens findet sich bei einem syrischen Gelehrten, dem Bischof Severus Sebokht, im Jahr 662. Er notierte, dass nicht alle großen Entdeckungen den Griechen zuzuschreiben seien, sondern dass auch andere Völker Wichtiges zur Entwicklung der Kultur beigetragen hätten, wie die Inder mit ihrem über alles Lob erhabenen System der Notierung von Zahlen mit neun Zeichen.
 
Im 8. Jahrhundert lernten dann die Araber in Bagdad dieses neuartige System und die damit verbundenen Rechenoperationen kennen. In der Folge entstand eine reiche arabische Literatur über das »indische Rechnen«. Der bekannteste Autor dieses Genres ist Mohammed ibn Musa al-Charismi, der in der 1. Hälfte des 9. Jahrhunderts in Bagdad wirkte. Sein Buch über das indische Rechnen wurde im 12. Jahrhundert in Spanien ins Lateinische übersetzt und machte so diese neuartige Zahlenschreibweise und Rechenmethode auch in Europa weithin bekannt. Der Begriff »Algorithmus« für das Rechnen nach der indischen Methode ist von der latinisierten Form seines Namens abgeleitet.
 
In diesem System konnte man die neun Einer einfach so niederschreiben; bei größeren Zahlen, zum Beispiel 124, schrieb man die 4 an die Stelle der Einer, die 2 links daneben an die Stelle der Zehner, die 1 wiederum links daneben an die Stelle der Hunderter. Wollte man aber 104 schreiben, so blieb die Stelle der Zehner leer, das heißt auf sie entfiel keines der neun Zeichen. Um diese Leere kenntlich zu machen, damit der Stellenwert nicht übergangen wird, setzten die Inder ein besonderes Zeichen, das sie shūnya (»Leere«, eingangs in der indischen Devanagarischrift abgebildet) nannten. Die Araber lernten dieses Zeichen in Form eines kleinen Kreises kennen, und so übernahmen es die Europäer. In Anlehnung an die indische Bezeichnung nannten die Araber das Zeichen für die »Leere« einer Stelle sifr (»leer«), und daraus entstand in Europa das Wort, das wir als »Ziffer« kennen und das wir heutzutage für alle Zahlzeichen, einschließlich der Null, verwenden.
 
 Der Siegeszug der Null
 
Die »indischen Ziffern« gelangten aus dem arabischen Osten im 9./10. Jahrhundert auch in den arabischen Westen - nach Nordafrika und in das arabisch beherrschte Spanien. Dabei nahmen einige Ziffern eine andere Form an. In Spanien lernten die Europäer diese Ziffern kennen, die für sie aufgrund der Herkunft »arabische« Ziffern waren. Das älteste europäische Dokument, das die neun Ziffern zeigt, datiert von 976. Durch die lateinische Übersetzung von al-Charismis Arithmetikbuch im 12. Jahrhundert wurden die »arabischen Ziffern« in ihrer eigentlichen Funktion, mit den Rechenoperationen, in Europa bekannt. Bis zur Durchsetzung dieser neuen Ziffern auch im allgemeinen öffentlichen Gebrauch vergingen aber dann nochmals etwa zwei Jahrhunderte.
 
Es ist nicht zu verwundern, dass dabei gerade die Null dem Verständnis besondere Schwierigkeiten bereitete. Einerseits stellt sie für sich selbst »nichts« dar, hat keinen Wert. Mit einer der neun Ziffern zusammengestellt, vermehrt sie dagegen deren Wert beträchtlich: Neben eine 1 gestellt, macht sie daraus Zehn, zwei Nullen neben einer 1 ergeben Hundert und so weiter. Es bedurfte einer langen Anlauf- und Gewöhnungsphase, bis die geheimnisvolle Null, zusammen mit den neun »arabischen« Ziffern und dem dezimalen Positionssystem, in Europa ihren Platz im Bewusstsein der Menschen fand. Dies umso mehr, als ja der lateinische Westen seit der Antike in Gestalt der römischen Ziffern ein Zahlensystem kannte, das ohne dieses Hilfszeichen auskam und das neben den neuen »arabischen« Ziffern ständig weiterbenutzt wurde und auch heute noch gelegentlich zur Anwendung kommt.
 
Prof. Dr. Paul Kunitzsch


T: 36