Computer, die die Welt veränderten

Veröffentlicht von

Computer – Intelligente Maschinen
Logarithmen, die der Schotte Jean Napier (1550-1617) etwa um 1600 erfand, erleichtern das Multiplizieren und Dividieren und stellen die Grundlage für den Rechenschieber dar. Trotzdem ist die Vorstellung, Maschinen auch zur Durchführung logischer Operationen einzusetzen, relativ neu. Die entsprechenden Prinzipien wurden von dem englischen Mathematiker George Boole (1815-1864) entdeckt, der 1854 die Algebra auf die Logik anwandte. 1936 zeigte der britische Mathematiker Alan Turning (1912-1954), dass eine Maschine theoretisch nicht nur rechnen, sondern auch mit logischen Aussagen umgehen und Symbole verändern konnte. Inzwischen hatte der deutsche Ingenieur Konrad Zuse (1910-1997) eine Rechenmaschine konstrukiert, die durch die Anwendung des Binärsystems die Computertechnike begründete. Sein dritter Prototyp, der 1941 gebaute „Zuse Z3“, war mit Hilfe von alten Filmstückchen programmiert. Für seinen nächsten Computer wollte Zuse elektronische Röhren verwenden, die tausendmal schneller waren, fand aber keine Unterstützung.

Unabhängig von Zuse arbeiteten auch amerikanische und britische Wissenschaftler während des Zweiten Weltkrieges an Computern Im Dechiffrierungszentrum Bletchly, nördlich von London, baute ein Forscherteam den ersten Computer mit Röhren. Unterdessen hatte das Ballistic Research Laboratory der US-Armee Forscher damit beauftragt, einen Computer zur Berechnung der Flugbahn von Raketen zu bauen. Der ENIAC (Electronic Numerical Integrator and Calculator) besass 18’000 Röhren, 70’000 Widerstände, 10’000 Kondensatoren und 6’000 Schalter. Er war schnell, konnte bis zu 5’000 Vorgänge pro Sekunde durchführen, aber nur schwer zu programmieren und hatte keinen internen Speicher.

Die erste Computergeneration arbeitete mit Röhren, die zweite Computergeneration die etwa um 1955 in Betrieb ging, mit Transistoren und die dritte Computergeneration, ungefähr ab 1960, mit ingegrierten Schaltkreisen. 1970 entwickelte die kalifornische Firma Intel den ersten Mikroprozessor oder „Computerchip“, der einen grundlegenden Wandel der Computertechnik auslöste und die Entwicklung der Personalcomputer ermöglichte.

Wieviel Computergenerationen gibt es?
Inzwischen befinden wir uns bereits in der fünften Computergeneration.


Der englische Erfinder Charles Babbage (1792-1871) versuchte als erster, eine für allgemeine Zwecke einsetzbare Rechenmaschine zu entwickeln. 1821 erfand er die Differenzmaschine, ein Ungetüm mit 25’000 Bestandteilen. Auf die Ränder eine Reihe von Rädern, die auf vertikalen Achsen angebracht waren, wurden Zahlen geschrieben. Wenn man sie drehte, führten die Räder mit Hilfe von Zahnradgetrieben und Verbindungen den Additionsvorgang aus, wobei es eine besondere Vorrichtung gab, um eine Ziffer in die nächste Spalte zu „befördern“, wenn zwei Zahlen zusammen mehr als neun ergaben.

"Prinzessin der Parallelogramme"
Ada, Countress Lovelace (1815-1852) verfasste den bedeutendsten Kommentar zur Charles Babbages Sketch of the Analytical Engine: Die Computersprache ADA ist nach ihr benannt.

1832 war die Maschine zu einem Siebtel fertiggestellt, aber mittlerweile befasste sich Babbage bereits mit der analytischen Maschine. Dieses Gerät sollte Additionen, Subtraktionen, Multiplikationen und Divisionen ausführen können, die in jeder beliebigen Abfolge programmiert werden konnten. Die analytische Maschine wurde nie gebaut, aber ein paar Entwürfe blieben erhalten. Diese zeigen, dass Babbage bereits das Modell des elektronischen Computers vorweggenommen hatte. Seine Maschine hatte einen eigenen Speicher, um die Zahlen festzuhalten; eine Mühle, die sie verändern konnte, wie in den heutigen Computern der Prozessor, und ein Programm in Gestalt von Lochkarten.

Turin und von Neumann
Der britische Mathematiker Alan Turing lieferte eine Definition des Computers, lange bevor der erste gebaut wurde. Er ging der Frage nach, ob es einen mechanischen Vorgang gebe, mit dessen Hilfe man die Richtigkeit mathematischer Aussagen überprüfen könne. Dazu konstruierte er eine imaginäre Maschine, die Anweisungen befolgen und eine Reihe von mathematischen Operationen durchführen konnte. Turing erkannte, dass die Art der Anweisungen das Ergebnis bestimmte, und schloss daraus, dass eine Maschine im Prinzip jede logische Operation ausführen könnte, zu der auch der Mensch in der Lage war. Das konnte auch ein Schachspiel sein oder die Ausarbeitung von Anagrammen. 1945 regte Turing in einem Bereicht an, eine elektronische Rechenmaschine zu bauen.

Im selben Jahr skizzierte der amerikanische Mathematiker John von Neumann (1903-1957) die Grundstruktur eines Computers. Er bestand aus vier Elementen: einem Speicher, einer Recheneinheit, einer Steuereinheit und einer Einheit, die für die Eingabe der Daten und die Ausgabe der Ergebnisse zuständig war. Er entschied, dass sein Computer seriell arbeiten sollte, denn das war einfacher, als ein Gerät zu konzipieren, in dem mehr als eine Operation gleichzeitig durchgeführt werden konnte. Bis in die jüngste Zeit beruhten alle digitalen Computer auf diesem Modell.

Binärsystem
Vor mehr 5000 Jahren entwickelten die Babylonier ein Zahlensystem, das auf der 60 beruhte – daraus leiteten sich die 60-Sekunden-Minute und die 60-Minuten-Studne ab. der deutsche Mathematiker Gottfried Leibniz (1646-1716) konzipierte das binäre Zahlensystem, das nur auf den zwei Zahlen 0 und 1 beruht. In diesem Dualsystem verkörpert jede Position in einer Zahl eine 1, eine 2, eine 4, eine 8, eine 16 und so weiter – anders als im Dezimalsystem mit seinen Zehnern, Hundertern und Tausendern. Die Binärzahl 10101 zum Beispiel besteht aus einer Eins, null Zweien, einer Vier, null Achten und einer 16 – insgesamt 21. Das Binärsystem ist ideal für den Computer, denn es lässt sich durch nur zwei Schalterpositionen darstellen – aus (0) = ausgeschaltet oder eins (1) = eingeschaltet.