Webdesign - Suchmaschinenoptimierung - Wien

WebDesignReDesignSEO-on-pageSEO-off-pageBeispieleKostenKontaktHome

Computergeschichte

Die Entwicklungsgeschichte des Computers (zu deutsch „Rechner“) reicht bis zurück bis in die Antike und ist damit wesentlich länger als die Geschichte der modernen Computertechnologien und mechanischen oder elektrischen Hilfsmitteln (Rechenmaschinen oder Hardware). Sie umfasst dabei auch die Entwicklung von Rechenmethoden, die etwa für einfache Schreibgeräte auf Papier und Tafeln entwickelt wurden. Im folgenden wird entsprechend versucht, einen Überblick über diese Entwicklungen zu geben.

Zahlen als Grundlage der Computergeschichte

Das Konzept der Zahlen lässt sich auf keine konkreten Wurzeln zurückführen und hat sich wahrscheinlich mit den ersten Notwendigkeiten der Kommunikation zwischen zwei Individuen entwickelt. Entsprechend findet man in allen bekannten Sprachen mindestens für die Zahlen eins und zwei und auch in der Kommunikation von vielen Tierarten (etwa verschiedenen Primaten, aber auch Vögeln wie der Amsel) lässt sich die Möglichkeit der Unterscheidung unterschiedlicher Mengen von Gegenständen feststellen.

Die Weiterentwicklung dieser einfachen numerischen Systeme führte wahrscheinlich zur Entdeckung der ersten mathematischen Rechenoperationen wie der Addition, der Subtraktion, der Multiplikation und der Division oder auch der Quadratzahlen und der Quadratwurzel. Diese Operationen wurden formalisiert (in Formeln dargestellt) und dadurch überprüfbar. Daraus entwickelten sich dann weiterführende Betrachtung, etwa die von Euklid entwickelte Darstellung des größten gemeinsamen Teilers.

Im Mittelalter erreichte das Arabische Zahlensystem Europa und erlaubte eine größere Systematisierung bei der Arbeit mit Zahlen. Die Möglichkeiten erlaubten die Darstellung von Zahlen, Ausdrücke und Formeln auf Papier und die Tabellierung von mathematischen Funktionen wie etwa der Quadratwurzeln oder des einfachen Logarithmus sowie der Trigonometrie. Zur Zeit der Arbeiten von Isaac Newton war Papier und Velin eine bedeutende Ressource für Rechenaufgaben und ist dies bis in die heutige Zeit geblieben, in der Forscher wie Enrico Fermi seitenweise Papier mit mathematischen Berechnungen füllten und Richard Feynman jeden mathematischen Schritt mit der Hand bis zur Lösung berechnete, obwohl es zu seiner Zeit bereits programmierbare Rechner gab.

Frühe Entwicklung von Rechenmaschinen und -hilfsmitteln

Die Entwicklung mechanischer Rechenhilfen

Das früheste Gerät, das in rudimentären Ansätzen mit einem heutigen Computer vergleichbar ist, ist der Abakus, eine mechanische Rechenhilfe, die vermutlich um 1100 v. Chr. im indo-chinesischen Kulturraum erfunden wurde. Der Abakus wurde bis ins 17. Jahrhundert benutzt und dann von den ersten Rechenmaschinen ersetzt. Einem ähnlichen Zweck diente auch das Rechenbrett des Pythagoras. Ebenfalls zu den frühen Rechenmaschinen gehört die Balkenwaage, die allerdings keinen numerischen Ansatz bietet sondern mit deren Hilfe versucht werden soll, beidseitig einer gemeinsamen Aufhängung eine Gleichheit des Gewichtes zu erreichen.
Mechanismus von Antikythera
Mechanismus von Antikythera

Bereits im 1. Jh. v. Chr. wurde mit dem Computer von Antikythera die erste Rechenmaschine erfunden. Das Gerät diente vermutlich für astronomische Berechnungen und funktionierte mit einem Differentialgetriebe, einer erst im 13. Jahrhundert wiederentdeckten Technik.

Mit dem Untergang der Antike kam der technische Fortschritt zum Stillstand und in den Zeiten der Völkerwanderung ging viel Wissen verloren (so beispielsweise auch der Computer von Antikythera, der erst 1902 wiederentdeckt wurde). Das Mittelalter schließlich hemmte den technischen Fortschritt. Doch ab der Neuzeit begann sich der Motor des technischen Fortschritts wieder langsam zu drehen und beschleunigte fortan - und dies tut er bis heute.

1614 publizierte John Napier seine Logarithmentafel und 1623 baute Wilhelm Schickard die erste Vier-Spezies-Maschine und damit den ersten mechanischen Rechner der Neuzeit, wodurch er bis heute zum „Vater der Computerära“ wurde. Seine Konstruktion basierte auf dem Zusammenspiel von Zahnrädern, die im wesentlichen aus dem Bereich der Uhrmacherkunst stammten und dort genutzt wurden, wodurch seine Maschine den Namen „rechnende Uhr“ erhielt. Praktisch angewendet wurde die Maschine von Johannes Kepler bei seinen astronomischen Berechnungen.

1642 folgte Blaise Pascal mit seiner Rechenmaschine, der Pascaline. 1668 entwickelte Samuel Morland eine Rechenmaschine, die erstmals nicht dezimal addierte, sondern auf das englische Geldsystem abgestimmt ist. 1673 baute Gottfried Wilhelm Leibniz seine erste Vier-Spezies-Maschine und erfand 1703 das binäre Zahlensystem (Dualsystem), das später die Grundlage für die Digitalrechner und darauf aufbauend die digitale Revolution wurde.

1805 entwickelte Joseph-Marie Jacquard Lochkarten, um Webstühle zu steuern. 1820 baute Charles Xavier Thomas de Colmar das „Arithmometer“, den ersten Rechner, der in Massenproduktion hergestellt wurde und somit den Computer für Großunternehmen erschwinglich machte. Charles Babbage entwickelte von 1820 bis 1822 die Differenzmaschine (engl. Difference Engine) und 1833 die Analytical Engine, konnte sie aber aus Geldmangel nicht bauen. 1843 bauten Edvard und George Scheutz in Stockholm den ersten mechanischen Computer nach den Ideen von Babbage , im gleichen Jahr entwickelt Ada Lovelace eine Methode zur Programmierung von Computern nach dem Babbage-System und schreibt damit das erste Computerprogramm. 1890 wurde die US-Volkszählung mit Hilfe des Lochkartensystems von Herman Hollerith durchgeführt, im gleichen Jahr baute Torres y Quevedo eine Schachmaschine, die mit König und Turm einen König matt setzen kann und somit den ersten Spielcomputer.

Mechanische Rechner wie die darauf folgenden Addierer, der Comptometer, der Monroe-Kalkulator, die Curta und der Addo-X wurden bis in die 1970er Jahre genutzt. Anders als Leibniz nutzten die meisten Rechner das Dezimalsystem, das technisch schwieriger umzusetzen war. Dies galt sowohl für die Rechner von Charles Babbage um 1800 wie auch für den ENIAC von 1945, den ersten elektronischen Universalrechner überhaupt.

Der Siegeszug des elektronischen Digitalrechners

Vom Beginn des 20. Jahrhunderts bis zum Ende des zweiten Weltkrieges

1935 stellen IBM die IBM 601 vor, eine Lochkartenmaschine, die eine Multiplikation pro Sekunde durchführen kann. Es wurden ca. 1500 Exemplare verkauft. 1937 meldet Konrad Zuse zwei Patente an, die bereits alle Elemente der so genannten Von-Neumann-Architektur beschreiben. Im gleichen Jahr baut John Atanasoff zusammen mit dem Doktoranden Clifford Berry einen der ersten Digitalrechner, den Atanasoff-Berry-Computer und Alan Turing publiziert einen Artikel, der die Turing-Maschine, ein abstraktes Modell zur Definition des Algorithmusbegriffs, beschreibt.

1938 stellt Konrad Zuse die Zuse Z1 fertig, einen frei programmierbaren mechanischen Rechner, der allerdings aufgrund von Problemen mit der Fertigungspräzision nie voll funktionstüchtig war. Die Z1 verfügte bereits über Gleitkommarechnung. Sie wurde im Krieg zerstört und später nach Originalplänen neu gefertigt, die Teile wurden auf modernen Fräs- und Drehbänken hergestellt. Dieser Nachbau der Z1, welcher im Deutschen Technik Museum in Berlin steht, ist mechanisch voll funktionsfähig und hat eine Rechengeschwindigkeit von 1 Hz, vollzieht also eine Rechenoperation pro Sekunde. Ebenfalls 1938 publiziert Claude Shannon einen Artikel darüber, wie man symbolische Logik mit Relais implementieren kann. (Lit.: Shannon 1938)

Während des Zweiten Weltkrieges gibt Alan Turing die entscheidenden Hinweise zur Entschlüsselung der ENIGMA-Codes und baut dafür einen speziellen mechanischen Rechner, Turing-Bombe genannt. Ebenfalls im Krieg (1941) baut Konrad Zuse die erste funktionstüchtige programmgesteuerte, binäre Rechenmaschine, bestehend aus einer großen Zahl von Relais, die Zuse Z3 . Die Z3 war turingmächtig und damit außerdem die erste Maschine, die – im Rahmen des verfügbaren Speicherplatzes – beliebige Algorithmen automatisch ausführen konnte. Aufgrund dieser Eigenschaften wird sie oft als erster funktionsfähiger Computer der Geschichte betrachtet. Zeitgleich werden auch in den USA unabhängig davon elektronische Maschinen zur numerischen Berechnung gebaut, die allerdings nicht turingmächtig waren. Auch Maschinen auf analoger Basis werden erstellt. Auf das Jahr 1943 wird auch die angeblich von IBM-Chef Thomas J. Watson stammende Aussage „Ich glaube, es gibt einen weltweiten Bedarf an vielleicht fünf Computern.“ datiert. Im gleichen Jahr stellt Tommy Flowers mit seinem Team in Bletchley Park den ersten „Colossus“ fertig. 1944 erfolgt die Fertigstellung des ASCC (Automatic Sequence Controlled Computer, „Mark I“ durch Howard H. Aiken) und das Team um Reinold Weber stellt eine Entschlüsselungsmaschine für das Verschlüsselungsgerät M-209 der US-Streitkräfte fertig .

Nachkriegszeit

Das Ende des Zweiten Weltkriegs erlaubt es wieder, dass Europäer und Amerikaner von ihren Fortschritten gegenseitig wieder Kenntnis erlangen. 1946 wird der Electronical Numerical Integrator and Computer (ENIAC) unter der Leitung von John Eckert und John Mauchly entwickelt. ENIAC ist der erste elektronische digitale Universalrechner. 1947 baut IBM den Selective Sequence Electronic Calculator (SSEC), einen Hybridcomputer mit Röhren und mechanischen Relais und die Association for Computing Machinery (ACM) wird als erste wissenschaftliche Gesellschaft für Informatik gegründet. Im gleichen Jahr wird auch der Transistor erfunden, der heute aus der modernen Technik nicht mehr weggedacht werden kann. Die maßgeblich an der Erfindung beteiligten William B. Shockley, John Bardeen und Walter Brattain erhielten 1956 den Nobelpreis für Physik. In die späten 1940er Jahre fällt auch der Bau des Electronic Discrete Variable Automatic Computer (EDVAC), der erstmals die Von-Neumann-Architektur implementierte.

1949 stellt Edmund C. Berkeley, Begründer der ACM, mit „Simon“ den ersten digitalen, programmierbaren Computer für den Heimgebrauch vor. Er besteht aus 50 Relais und wird in Gestalt von Bauplänen vertrieben, von denen in den ersten zehn Jahren ihrer Verfügbarkeit über 400 Exemplare verkauft werden. Im selben Jahr stellt Maurice Wilkes mit seinem Team in Cambridge den Electronic Delay Storage Automatic Calculator (EDSAC) vor; basierend auf John von Neumanns EDVAC ist es der erste Rechner, der vollständig speicherprogrammierbar ist. Ebenfalls 1949 stellt Steve Kolberg die Zuse Z4 fertig, deren Bau schon 1942 begonnen wurde und 1944 in wesentlichen Teilen abgeschlossen war, aber kriegsbedingt nicht fertiggestellt werden konnte. 1950 wird die Z4 von der Firma Zuse KG an die ETH Zürich geliefert und geht dort in Betrieb.

In den 1950er Jahren setzt die Produktion kommerzieller (Serien-)Computer ein. So baut Remington Rand 1951 ihren ersten kommerziellen Röhrenrechner, den UNIVersal Automatic Computer I (UNIVAC I) und 1955 Bell Labs für die US Air Force mit dem TRansistorized Airborne DIgital Computer den ersten Computer, der komplett mit Transistoren statt Röhren bestückt ist; im gleichen Jahr baut die DDR mit der „OPtik-REchen-MAschine“ (OPREMA) ihren ersten Computer. 1956 baut IBM das erste Magnetplattensystem (Random Access Method of Accounting and Control (RAMAC)). 1959 beginnt Siemens mit der Auslieferung des Siemens 2002, des ersten in Serie gefertigten und vollständig auf Basis von Transistoren hergestellten Computers.

1960er

1960 baut IBM den IBM 1401, einen transistorisierten Rechner mit Magnetbandsystem, und DECs (Digital Equipment Corporation) erster Minicomputer, die PDP-1 (Programmierbarer Datenprozessor) erscheint. 1962 liefert Telefunken AG die ersten TR 4 aus. 1964 baut DEC den Minicomputer PDP-8 für unter 20.000 Dollar.

1964 definiert IBM die erste Computerarchitektur S/360, womit Rechner verschiedener Leistungsklassen denselben Code ausführen können, und bei Texas Instruments wird der erste „integrierte Schaltkreis“ (IC) entwickelt. 1966 erscheint mit D4a ein 33bit Auftischrechner der TU Dresden.

1968 bewirbt Hewlett-Packard (HP) den HP-9100A als „personal computer“ in der Science-Ausgabe vom 4. Oktober 1968. Im Dezember stellen Douglas C. Engelbart und William English vom Stanford Research Institute (SRI) die erste Computermaus vor, mangels sinnvoller Einsatzmöglichkeit (es gab noch keine grafischen Benutzeroberflächen) interessiert dies jedoch kaum jemanden.

1970er

Mit der Erfindung des serienmäßig produzierbaren Mikroprozessors werden die Computer immer kleiner und leistungsfähiger. Doch noch wird das Potential der Computer verkannt. So sagt noch 1977 Ken Olson, Präsident und Gründer von DEC: „Es gibt keinen Grund, warum jemand einen Computer zu Hause haben wollte.“

1971 ist es Intel, der mit dem 4004 den ersten in Serie gefertigten Mikroprozessor baut. Er besteht aus 2250 Transistoren. 1971 liefert Telefunken den TR 440 an das Deutsche Rechenzentrum Darmstadt, sowie an die Universitäten Bochum und München. 1972 geht der Illiac IV, ein Supercomputer mit Array-Prozessoren, in Betrieb. 1973 erscheint mit Xerox Alto der erste Computer mit Maus, GUI und eingebauter Ethernet-Karte; und die französische Firma R2E beginnt mit der Auslieferung des Micral. 1974 stellt HP mit dem HP-65 den ersten programmierbaren Taschenrechner vor und Motorola baut den 6800 Prozessor währenddessen Intel den 8080 Prozessor baut. 1975 beginnt MITS mit der Auslieferung des Altair 8800.

1976 bringt Apple Computer den Apple I auf den Markt und Zilog entwickelt den Z80 Prozessor. 1977 kommen der Apple II, der Commodore PET und der Tandy TRS 80 auf den Markt. 1978 bringt DEC die VAX-11/780, eine Maschine speziell für virtuelle Speicheradressierung, auf den Markt. 1979 schließlich bringt Atari seine Rechnermodelle 400 und 800 in die Läden. Revolutionär ist, dass mehrere Custom-Chips den Hauptprozessor entlasten.

1980er

Die 1980er sind die Blütezeit der Heimcomputer, zunächst mit 8-Bit-Mikroprozessoren und einem Arbeitsspeicher bis 64 kB (Commodore VC20, C64, Sinclair ZX80/81, Sinclair ZX Spectrum, Schneider CPC 464/664), später auch leistungsfähigere Modelle mit 16-Bit- oder 16/32-Bit-Mikroprozessoren (z. B. Amiga, Atari ST). Diese Entwicklung wird durch IBM in Gang gesetzt, die 1981 den IBM-PC (Personal Computer) vorstellen und damit entscheidend die weitere Entwicklung bestimmen.

1982 bringt Intel den 80286-Prozessor auf den Markt und Sun Microsystems entwickelt die Sun-1 Workstation. 1984 kommt der Apple Macintosh auf den Markt und setzt neue Maßstäbe für Benutzerfreundlichkeit. Im Januar 1985 stellt Atari den ST-Computer auf der Consumer Electronics Show (CES) in Las Vegas vor. Im Juli produziert Commodore den ersten Amiga-Heimcomputer. 1986 bringt Intel den 80386-Prozessor auf den Markt, 1989 den 80486. Ebenfalls 1986 präsentiert Motorola den 68030-Prozessor.1988 stellt NeXT mit Steve Jobs, Mitgründer von Apple, den gleichnamigen Computer vor.

1990er

Die 1990er sind das Jahrzehnt des Internets und des World Wide Web. (Siehe auch Geschichte des Internets, Chronologie des Internets)

1991 spezifiert das AIM-Konsortium (Apple, IBM, Motorola) die PowerPC-Plattform. 1992 stellt DEC die ersten Systeme mit dem 64-Bit-Alpha-Prozessor vor. 1993 bringt Intel den Pentium-Prozessor auf den Markt, 1995 den Pentium Pro. 1994 stellt Leonard Adleman mit dem TT-100 den ersten Prototypen für einen DNA-Computer vor, im Jahr darauf Be Incorporated die BeBox. 1999 baut Intel den Supercomputer ASCI Red mit 9.472 Prozessoren und AMD stellt den Nachfolger der K6-Prozessorfamilie vor, den Athlon.

Entwicklung im 21. Jahrhundert

Zu Beginn des 21. Jahrhunderts sind Computer allgegenwärtig, allgemein akzeptiert und für das moderne Leben absolut unabdingbar. Währenddem die Leistungsfähigkeit weiter gesteigert wird (Prozessorgeschwindigkeiten von bis zu 4 GHz und virtuell bis zu 6 GHz, Arbeitsspeicher von mehreren Gigabytes und Festplattenspeicher im Terabyte-Bereich) werden die Geräte laufend kleiner und unter anderem in die Telekommunikation und Bildbearbeitung integriert. Die Benutzung des Computers wandelt sich weg von klassischen Informationsdienstleistungen (Datendienste, Vermittlung, Handel, Medien) hin zum digitalen Weltmedium Internet und interaktiven Applikationen (Web 2.0).

2001 baut IBM den Supercomputer ASCI White und 2002 geht der NEC Earth Simulator in Betrieb. 2003 liefert Apple den PowerMac G5 aus, den ersten Computer mit 64-Bit-Prozessoren für den Massenmarkt. AMD zieht mit dem Opteron und dem Athlon 64 nach. 2005 produzieren AMD und Intel erste Dual-Core Prozessoren, 2006 doppelt Intel mit den ersten Core 2 Duo-Prozessoren nach.

Zukunftsperspektiven

Zukünftige Entwicklungen bestehen aus der möglichen Nutzung biologischer Systeme (Biocomputer), optischer Signalverarbeitung und neuen physikalischen Modellen (Quantencomputer). Weitere Verknüpfungen zwischen biologischer und technischer Informationsverarbeitung. Auf der anderen Seite nimmt man langsam Abstand von nicht realisierten Trends der letzten 20 Jahre, Expertensysteme und Künstliche Intelligenzen, die ein Bewusstsein entwickeln, sich selbst verbessern oder gar rekonstruieren, zu erforschen.

Für weitere Entwicklungen und Trends, von denen viele noch den Charakter von Schlagwörtern bzw. Hypes haben, siehe Autonomic Computing (= Rechnerautonomie), Grid Computing, Pervasive Computing, Ubiquitäres Computing (= Rechnerallgegenwart) und Wearable Computing.

Artikel Computergeschichte. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 31. Januar 2007, 13:00 UTC. URL: http://de.wikipedia.org/w/index.php?title=Computergeschichte&oldid=27172310 (Abgerufen: 3. Februar 2007, 09:29 UTC)

 

Webdesigns handeln



Spenden für Nachbar in Not