Computer sind heute Bestandteil nahezu jeden Lebensbereiches. Meist unbewusst, aber sie sind enthalten in Apparaten im medizinischen Bereich, sie steuern Automaten jeglicher Art und sie sind natürlich vor allem auch in Geräten der Unterhaltungselektronik zu finden. Computer waren ursprünglich nur als Hilfsmittel für „Rechenaufgaben“ gedacht, die zu komplex oder zu umfangreich für die herkömmliche Berechnung waren. Heute können sie jedoch bei weitem mehr leisten.
Begriffserklärung und Ursprünge
Das Wort Computer findet seinen Ursprung in der englischen oder der lateinischen Sprache. „to compute“ oder „computare“ bedeuten in beiden Fällen sinngemäß „zusammenrechnen“. In dieser Wortherkunft ist auch der eigentlich Sinn der Erfindung eines Computers zu suchen. Es sollte eine Rechenmaschine entwickelt werden, die den Menschen entlastet.
Ursprünglich war der „Computer“ eine Berufsbezeichnung für Personen, die in allen Teilbereichen der Mathematik bewandert waren, also für Rechenspezialisten. Konrad Zuse entwickelte im Jahre 1938 die erste mechanische Rechenmaschine und im Jahre 1946 wurde der Begriff Computer das erste Mal im Zusammenhang mit einer Rechenmaschine verwendet (Electronic Numerical Integrator and Computer).
Geschichtliche Entwicklung des Computers
Als Rechenmaschine basiert der Computer in seiner Funktionsweise auf den allgemein bekannten mathematischen Grundrechenarten. Die Entwicklung der verschiedenen Zahlensysteme und die Entdeckung der einzelnen mathematischen Rechenoperation liegt zwar Hunderte von Jahren zurück, stellt aber die wesentlichste Grundlage der heutigen Arbeitsweise der Computer dar.
Bereits in früheren Jahrhunderten wurden Rechenmaschinen entwickelt, die im Prinzip bereits als Computer bezeichnet werden könnten. Der Abakus, der über 1000 Jahre v. Chr. entwickelt wurde, dürfte hier das erste nennenswerte Beispiel sein. Der Mechanismus von Antikythera aus dem 1. Jahrhundert unserer Zeit stellt eine Räderuhr dar, die mittels vieler Zahnräder einen Sonnen-, Mond- und Finsterniskalender abbildet.
Im 17. Jahrhundert wurde mit der „Vier-Spezies-Maschine“ der erste mechanische Rechner der Neuzeit entwickelt, der dem Begriff nach alle vier Grundrechenarten durchführen kann. Dessen Erfinder Wilhelm Schickard wird daher auch als „Vater der Computer-Ära“ bezeichnet. Ähnlich entscheidend für den weiteren Fortschritt war die Entwicklung des binären Zahlensystems durch Gottfried Wilhelm Leibniz 1673. Dieses stellt die Grundlage für die heutigen Digitalrechner dar, wurde aber bereits in der damaligen Zeit zum Beispiel in verschiedenen Anwendungen von Lochkartensystemen benutzt.
Mit der industriellen Revolution schritt auch die Entwicklung im Bereich Computer extrem voran. Im 19. Jahrhundert wurde eine Vielzahl von unterschiedlichen Rechenmaschinen entwickelt, die meist auf den Prinzipien der Differenzmaschine und der „Analytical Engine“ von Charles Babbage basierten. Ende des 19.Jahrhunderts wurde so auch der erste „Spiele-Computer“ entwickelt, es handelte sich hier um einen einfachen Schachcomputer, der mit König und Turm matt setzen konnte.
Vorläufer des Computers
Im 20. Jahrhundert kam es dann zu einem regelrechten Wettstreit der mächtigen Nationen. Beteiligt waren vor allem die Rechenmaschinen von Konrad Zuse und der erste Digitalrechner, der Atanasoff-Berry-Computer. Im zweiten Weltkrieg kam die britische „Colossus“ noch dazu. Vor allem im zweiten Weltkrieg wurden die Ressourcen für die Entwicklung von Verschlüsselungs- und Entschlüsselungsmaschinen eingesetzt.
Nach dem Krieg entwickelte sich auch der zivile Sektor recht schnell. Bereits 1949 wurde mit „Simon“ der ersten digitalen Computer für den privaten Heimgebrauch vorgestellt. In den Fünfziger und Sechziger Jahren wurden vor allem kommerzielle Rechner auf Transistorbasis gebaut. Erst Ende der Sechziger Jahre wurde mit dem HP-9100A der erste Rechner entwickelt, der offiziell als Personal Computer bezeichnet wurde.
Besonders richtungsweisend für die weitere Entwicklung der Leistungsfähigkeit war die Definition einer neuen Computerarchitektur und die Erfindung des integrierten Schaltkreises. Ähnlich bedeutend aus heutiger Sicht ist die Entwicklung der Computermaus 1968 und die Verbindung der ersten Computer mit dem Internet 1969.
Die ersten Heimcomputer
In den Siebziger Jahren wurde vor allem die Entwicklung im Bereich Personal Computer erheblich beschleunigt. Verschiedene Unternehmen brachten eigene Versionen auf den Markt. Tonangebend waren vor allem Apple, Atari, IBM und Commodore. Durch die Entwicklung des Mikroprozessor wurden die Rechner immer kleiner und leistungsfähiger. So gab es 1974 bereits den ersten programmierbaren Taschenrechner.
In den Achtzigern wurden einige der heute noch bekanntesten Heim-Computer produziert. Der C64, der Amiga, der Apple Macintosh oder der IBM-PC stellen Vorreiter in Bereich PC dar. In dieser Zeit schritt die Entwicklung der Prozessoren rasant vorwärts. Waren es anfangs noch 8Bit Prozessoren mit 64kb Arbeitsspeicher, so wurden beim Amiga bereits 32Bit – Prozessoren verwendet. Mitte der Achtziger Jahre wurde dann mit dem Usenet und der Datenfernübertragung (DFÜ) das erste Mal ernsthaft am Internet gearbeitet.
Ende des 20. Jahrhunderts konzentrierte sich die Entwicklung hauptsächlich auf den Fortschritt im Bereich der Prozessoren und die Entdeckung der Möglichkeiten im World Wide Web. In der Zukunft wird eine Nutzung des Computers für biologische Systeme, das heißt, die Verknüpfung von Natur und Technik immer wahrscheinlicher. Künstliche Intelligenzen, bisher nur Fiktion, könnten dann Realität werden. Darüber hinaus wird die Einbindung neuer Rechenmodelle zum Beispiel aus der Quantenphysik an der Tagesordnung stehen.
Funktionsweise eines Computers
Grundlegend werden Computer in digitale und analoge Computer unterschieden. Die digitale Variante kann sowohl Zahlen als auch Textzeichen (also digitale Daten) verarbeiten, die analoge Variante nur analoge Daten, also zum Beispiel Messgrößen.
Physisch besteht der Computer aus verschiedenen Bauteilen. Diese Hardware ist logisch in verschiedene Aufgabenbereiche unterteilt. Die Recheneinheit (ALU – arithmetisch – logische Einheit) und die Steuereinheit sind heute meist im Zentralprozessor (CPU) zusammen gefasst. Nach der Von-Neumann-Architektur gehören zur Hardware weiterhin die Buseinheit, der Speicher und die Ein- und Ausgabeeinheiten.
Das Rechenwerk verfügt über verschiedene Bausteine (Rechenoperationen), mit denen die verschiedensten Operationen verarbeitet werden können. Der Speicher wird vom System so genutzt, dass Daten und Programme automatisch in verschiedenen Bereichen abgelegt werden. In der Von-Neumann-Architektur sind diese Bereiche „logisch“ getrennt, in der Harvard-Architektur wird ein Überschreiben von Programmen durch Daten durch physische Abgrenzung verhindert.
Die Eingabegeräte werden vom Benutzer für die Vorgabe der gewünschten Aufgabe genutzt. Die Steuereinheit regelt das Auslesen von Daten. Diese werden an die Recheneinheit weitergeleitet und dort mittels vorgegebener Operationen kombiniert. Diese internen, irrealen Berechnungen werden dann über die Ausgabeeinheit sichtbar gemacht.
Dieses Prinzip wäre für den Benutzer aber wenig praktikabel, da er die Befehle für jede einzelne Speicherzelle eingeben müsste. Daher wurde dieser Aufwand durch die Erfindung und Nutzung von Programmiersprachen erheblich abgemindert. Hier ist eine Vielzahl von Textbefehlen in entsprechenden Bibliotheken hinterlegt. Der Nutzer bedient sich also eines vereinfachten Befehls und löst eine Vielzahl von automatischen Reaktionen im Computer aus, an deren Ende die Ausgabe der gewünschten Information steht.
Diese Steuerung des Computers durch die Eingabe von Befehlen ist heute in der Regel durch die Nutzung einer grafischen Oberfläche und die Bereitstellung verschiedenster Programme abgelöst worden. Hier wählt der Computer-Nutzer mittels Maus oder Tastatur die gewünschte Funktion aus, diese wird automatisch in die entsprechenden Programmiersprachen-Befehle umgewandelt und dann physisch verarbeitet.