Diese Website ist seit dem Ende des Studiengangs Informationswissenschaft
im Juni 2014 archiviert und wird nicht mehr aktualisiert.
Bei technischen Fragen: Sascha Beck - s AT saschabeck PUNKT ch
Drucken

Identität und Geschichte der Informationswissenschaft

Die Geschichte des Computers

Die Geschichte des Computers

Projekte: Identität und Geschichte der Informationswissenschaft

Stephan Schlicker

1. Vom Abakus zum elektronischen Rechner

Die Geschichte des Computers ist wesentlich länger, als man vielleicht vermutet. Die Geschichte des Computers, in seiner eigentlichen Bedeutung als reine Rechenmaschine, beginnt eigentlich schon 3000 Jahre vor Christus mit der Erfindung des ersten Abakus in Babylon. Dieser entwickelte sich in den nächsten 2500 Jahren von seiner ursprünglichen Form, bei der Steine in Rillen im Sand gelegt wurden, bis zur heute üblichen Form mit Stäben und Perlen in einem Holzgehäuse.
Der nächste Meilenstein in Richtung eines automatischen Rechners auf dem Sektor der „Hardware“ gelang dann erst 1624 dem Deutschen Wilhelm Schickard, der an der Universität Heidelberg den ersten 4-Funktionen-Rechner baute.
Knapp 20 Jahre später gelingt es dann dem jungen Franzosen Blaise Pascal erstmals, einen voll mechanischen Addierer zu bauen. Dieser war als Hilfsmittel für seinen Vater, einen französischen Steuereintreiber, gedacht.

Abb. 1: mechanischer Rechner Pascals
Abb. 1: mechanischer Rechner Pascals

Gottlieb Leibnitz entwickelt die Idee eines mechanischen Rechners weiter und stellt schließlich 1672 die erste mechanische Rechenmaschine, die die vier Grundrechenarten Addition, Subtraktion, Multiplikation und Division beherrscht, fertig.
Danach gab es wieder eine große Lücke, bevor sich 1903 Nikola Tesla elektrische Schaltkreise, so genannte logische Gatter, patentieren lässt, und damit einen ersten großen Schritt in Richtung Modularisierung vollzieht.
1925 entwickelt Vannevar Bush am Massachusetts Institute of Technology (MIT) einen Computer zum Lösen von Differentialgleichungen. Damit gelingt ihm wohl eine der letzten großen Erfindungen auf dem Gebiet der analogen Rechner, bevor Konrad Zuse den von 1931 bis 1938 in Handarbeit gebauten ersten programmierbaren Rechner, den Z1, der Welt vorstellt.

Abb. 2: Konrad Zuses Z1, original
Abb. 2: Konrad Zuses Z1, original

1 Jahr später folgt dann schon sein Z2, eine Weiterentwicklung seines Z1, der erstmals auch teilweise Relais verwendet, und dadurch gegenüber dem Z1 deutlich an Stabilität und Zuverlässigkeit gewinnt. Und am 12.05.1941 führt Konrad Zuse in Berlin Wissenschaftlern den ersten voll funktionsfähigen Programmgesteuerten Rechner der Welt vor, den Z3, der nur noch mit Relais funktioniert.

Abb. 3: Konrad Zuses Z3, Nachbau im Dt. Museum
Abb. 3: Konrad Zuses Z3, Nachbau im Dt. Museum

Der Weg vom Abakus von damals zu dem was man heute allgemein unter dem Begriff Computer, oder besser PC, versteht, vollzieht sich allerdings nicht nur im Bereich der Hardware, also dem Rechner selbst.
Er ist auch in erheblichem Maße durch Mathematiker und deren Algorithmen, also der „Software“ geprägt, die eigentlich erst den Antrieb und die Motivation liefern, Maschinen zu bauen, die diese Algorithmen lösen können.
Die „Software“ von damals war zwar noch weit weg von dem, was man heute landläufig mit dem Begriff Software verbindet, stellt aber heute noch in einigen Bereichen, z.B. der Kryptographie, wesentliche Grundlagen zur Verfügung.
So wurde ca. 1800 v. Chr. in Ägypten das wohl erste wohlgeformte additive Nummernsystem eingeführt.
Ein heute z.T. immer noch verwendeter Algorithmus ist das Sieb des Eratosthenes, ein Algorithmus zur Primzahlbestimmung, der ca. 250 v. Chr. entwickelt wurde.
Ein wichtiger Schritt, ohne den ein Zahlsystem wie das unserige nicht denkbar wäre, ist die Erfindung und Einführung der „0“ durch die Chinesen um das Jahr 800 n. Chr.
1854 legte der Ire George Boole die Grundlage für heutige Prozessoren, er publizierte die Bool´sche Algebra, logische Mathematik ausschließlich auf den beiden Werten 0 und 1 des Binärsystems. Einen weiteren Schritt in Richtung PC von heute machte 1936 dann der Engländer Alan M. Turing, der den Begriff der Berechenbarkeit formalisiert und den Begriff des Algorithmus an die Berechnung von Funktionen anpasst.

 

Durch die weitere Nutzung der Seite stimmst du der Verwendung von Cookies zu. Weitere Informationen

Die Cookie-Einstellungen auf dieser Website sind auf "Cookies zulassen" eingestellt, um das beste Surferlebnis zu ermöglichen. Wenn du diese Website ohne Änderung der Cookie-Einstellungen verwendest oder auf "Akzeptieren" klickst, erklärst du sich damit einverstanden.

Schließen