Introducing
Your new presentation assistant.
Refine, enhance, and tailor your content, source relevant images, and edit visuals quicker than ever before.
Trending searches
Geschichte
Enstehung
Die Computertechnologie entwickelte sich im Vergleich zu anderen Elektrogeräten sehr schnell. Die Geschichte der Entwicklung des Computers reicht zurück bis in die Antike und ist damit wesentlich länger als die Geschichte der modernen Computertechnologien und mechanischen oder elektrischen Hilfsmitteln (Rechenmaschinen oder Hardware). Sie umfasst dabei auch die Entwicklung von Rechenmethoden, die etwa für einfache Schreibgeräte auf Papier und Tafeln entwickelt wurden. Im Folgenden wird entsprechend versucht, einen Überblick über diese Entwicklungen zu geben.
Grundlagen
Hardwarearchitektur
Das heute allgemein angewandte Prinzip, das nach seiner Beschreibung durch John von Neumann von 1946 als „Von-Neumann-Architektur“ bezeichnet wird, definiert für einen Computer fünf Hauptkomponenten:
die Recheneinheit (Arithmetisch-Logische Einheit (ALU)),
die Steuereinheit,
die Buseinheit
den Speicher und
die Eingabe- und Ausgabeeinheit(en).
In den heutigen Computern sind die ALU und die Steuereinheit meistens zu einem Baustein verschmolzen, der so genannten CPU (Central Processing Unit, zentraler Prozessor).
Der Speicher ist eine Anzahl von durchnummerierten „Zellen“; jede von ihnen kann ein kleines Stück Information aufnehmen. Diese Information wird als Binärzahl, also einer Abfolge von ja/nein-Informationen, in der Speicherzelle abgelegt – besser vorzustellen als eine Folge von Nullen und Einsen. Ein Charakteristikum der „Von Neumann-Architektur“ ist, dass diese Binärzahl (beispielsweise 01000001, was der Dezimalzahl 65 entspricht) entweder ein Teil der Daten sein kann (also zum Beispiel der Buchstabe „A“), oder ein Befehl für die CPU („Springe ...“).
Wesentlich in der Von-Neumann-Architektur ist, dass sich Programm und Daten einen Speicherbereich teilen (dabei belegen die Daten in aller Regel den unteren und die Programme den oberen Speicherbereich).
Dem gegenüber stehen in der sog. Harvard-Architektur Daten und Programmen eigene (physikalisch getrennte) Speicherbereiche zur Verfügung, dadurch können Daten-Schreiboperationen keine Programme überschreiben.
In der Von-Neumann-Architektur ist die Steuereinheit dafür zuständig, zu wissen, was sich an welcher Stelle im Speicher befindet. Man kann sich das so vorstellen, dass die Steuereinheit einen „Zeiger“ auf eine bestimmte Speicherzelle hat, in der der nächste Befehl steht, den sie auszuführen hat. Sie liest diesen aus dem Speicher aus, erkennt zum Beispiel „65“, erkennt dies als „Springe“. Dann geht sie zur nächsten Speicherzelle, weil sie wissen muss, wohin sie springen soll. Sie liest auch diesen Wert aus, und interpretiert die Zahl als Nummer (so genannte Adresse) einer Speicherzelle. Dann setzt sie den Zeiger auf eben diese Speicherzelle, um dort wiederum ihren nächsten Befehl auszulesen; der Sprung ist vollzogen. Wenn der Befehl zum Beispiel statt „Springe“ lauten würde „Lies Wert“, dann würde sie nicht den Programmzeiger verändern, sondern aus der in der Folge angegebenen Adresse einfach den Inhalt auslesen, um ihn dann beispielsweise an die ALU weiterzuleiten.
Die ALU hat die Aufgabe, Werte aus Speicherzellen zu kombinieren. Sie bekommt die Werte von der Steuereinheit geliefert, verrechnet sie (addiert beispielsweise zwei Zahlen, welche die Steuereinheit aus zwei Speicherzellen ausgelesen hat) und gibt den Wert an die Steuereinheit zurück, die den Wert dann für einen Vergleich verwenden oder wieder in eine dritte Speicherzelle zurückschreiben kann.
Die Ein-/Ausgabeeinheiten schließlich sind dafür zuständig, die initialen Programme in die Speicherzellen einzugeben und dem Benutzer die Ergebnisse der Berechnung anzuzeigen.
Softwarearchitektur
Die Von-Neumann-Architektur ist gewissermaßen die unterste Ebene des Funktionsprinzips eines Computers oberhalb der elektrophysikalischen Vorgänge in den Leiterbahnen. Die ersten Computer wurden auch tatsächlich so programmiert, dass man die Nummern von Befehlen und von bestimmten Speicherzellen so, wie es das Programm erforderte, nacheinander in die einzelnen Speicherzellen schrieb. Um diesen Aufwand zu reduzieren, wurden Programmiersprachen entwickelt. Diese generieren die Zahlen innerhalb der Speicherzellen, die der Computer letztlich als Programm abarbeitet, aus höheren Strukturen heraus automatisch.
Später wurden bestimmte sich wiederholende Prozeduren in so genannten Bibliotheken zusammengefasst, um nicht jedes Mal das Rad neu erfinden zu müssen, z. B. das Interpretieren einer gedrückten Tastaturtaste als Buchstabe „A“ und damit als Zahl „65“ (im ASCII-Code). Die Bibliotheken wurden in übergeordneten Bibliotheken gebündelt, welche Unterfunktionen zu komplexen Operationen verknüpfen (Beispiel: die Anzeige eines Buchstabens „A“, bestehend aus 20 einzelnen schwarzen und 50 einzelnen weißen Punkten auf dem Bildschirm, nachdem der Benutzer die Taste „A“ gedrückt hat).
In einem modernen Computer arbeiten sehr viele dieser Programmebenen über- bzw. untereinander. Komplexere Aufgaben werden in Unteraufgaben zerlegt, die von anderen Programmierern bereits bearbeitet wurden, die wiederum auf die Vorarbeit weiterer Programmierer aufbauen, deren Bibliotheken sie verwenden. Auf der untersten Ebene findet sich aber immer der so genannte Maschinencode – jene Abfolge von Zahlen, mit der der Computer auch tatsächlich gesteuert wird.
Während früher eine CPU nur mit diesem Maschinencode gesteuert werden konnte, sind inzwischen auch CPUs programmierbar und damit kleine eigenständige Computer.
Der Siegeszug des elektronischen Digitalrechners
1935 stellten IBM die IBM 601 vor, eine Lochkartenmaschine, die eine Multiplikation pro Sekunde durchführen konnte. Es wurden ca. 1500 Exemplare verkauft. 1937 meldete Konrad Zuse zwei Patente an, die bereits alle Elemente der so genannten Von-Neumann-Architektur beschreiben. Im gleichen Jahr baute John Atanasoff zusammen mit dem Doktoranden Clifford Berry einen der ersten Digitalrechner, den Atanasoff-Berry-Computer und Alan Turing publizierte einen Artikel, der die Turing-Maschine, ein abstraktes Modell zur Definition des Algorithmusbegriffs, beschreibt.
1938 stellte Konrad Zuse die Zuse Z1 fertig, einen frei programmierbaren mechanischen Rechner, der allerdings aufgrund von Problemen mit der Fertigungspräzision nie voll funktionstüchtig war. Die Z1 verfügte bereits über Gleitkommarechnung. Sie wurde im Krieg zerstört und später nach Originalplänen neu gefertigt, die Teile wurden auf modernen Fräs- und Drehbänken hergestellt. Dieser Nachbau der Z1, welcher im Deutschen Technikmuseum in Berlin steht, ist mechanisch voll funktionsfähig und hat eine Rechengeschwindigkeit von 1 Hz, vollzieht also eine Rechenoperation pro Sekunde. Ebenfalls 1938 publizierte Claude Shannon einen Artikel darüber, wie man symbolische Logik mit Relais implementieren kann. (Lit.: Shannon 1938)
Während des Zweiten Weltkrieges gab Alan Turing die entscheidenden Hinweise zur Entschlüsselung der ENIGMA-Codes und baute dafür einen speziellen mechanischen Rechner, Turing-Bombe genannt. Ebenfalls im Krieg (1941) baute Konrad Zuse die erste funktionstüchtige programmgesteuerte, binäre Rechenmaschine, bestehend aus einer großen Zahl von Relais, die Zuse Z3. Die Z3 war turingmächtig und damit außerdem die erste Maschine, die – im Rahmen des verfügbaren Speicherplatzes – beliebige Algorithmen automatisch ausführen konnte. Aufgrund dieser Eigenschaften wird sie oft als erster funktionsfähiger Computer der Geschichte betrachtet. Die nächsten Digitalrechner waren der in den USA gebaute Atanasoff-Berry-Computer (Inbetriebnahme 1941) und die britische Colossus (1941). Sie dienten speziellen Aufgaben und waren nicht turingmächtig. Auch Maschinen auf analoger Basis wurden erstellt.
Auf das Jahr 1943 wird auch die angeblich von IBM-Chef Thomas J. Watson stammende Aussage „Ich glaube, es gibt einen weltweiten Bedarf an vielleicht fünf Computern.“ datiert. Im gleichen Jahr stellte Tommy Flowers mit seinem Team in Bletchley Park den ersten „Colossus“ fertig. 1944 erfolgte die Fertigstellung des ASCC (Automatic Sequence Controlled Computer, „Mark I“ durch Howard H. Aiken) und das Team um Reinold Weber stellte eine Entschlüsselungsmaschine für das Verschlüsselungsgerät M-209 der US-Streitkräfte fertig
Aufbau und Verwendung
Das Mainboard
Das Mainboard (Motherboard, Hauptplatine) umfasst die gesamte Steuerungslogik des Computer, in der Regel den Prozessor, in einem speziellen Sockel (Abhängig vom Prozessortyp und Hersteller) und den so genannten Chipsatz, der aus einer Reihe integrierter Bausteine (ICs) besteht.
Das Mainboard verbindet nun alle Einzelkomponenten des PCs mit dem Prozessor. Dieses umfasst im allgemeinen folgende Komponenten:
Hauptprozessor (CPU)
Der Hauptprozessor, englisch Central Processing Unit oder kurz CPU, im allgemeinen Sprachgebrauch oft auch nur als Prozessor, in einigen Kontexten auch als Zentraleinheit (ZE) bezeichnet, ist der Teil eines Computers, der alle anderen Bestandteile steuert. Das Verhalten der CPU wird dabei von einem Programm in Form von Maschinencode bestimmt. Zu den zentralen Aufgaben der CPU gehören arithmetische Operationen, das Lesen und Schreiben von Daten im Arbeitsspeicher, sowie das ausführen von Sprüngen im Programm. Die moderne Form der CPU ist der Mikroprozessor, der alle Bausteine der CPU auf einem Mikrochip vereinigt.
BIOS (Basic Input/Output System): Hauptaufgaben:
• der Selbsttest und die Initialisierung des Computersystems und dessen Komponenten beim Einschalten
a) Die Start-Up-Routinen
1.)Power-On Self Test (POST),
2.)Initialisierung,
3.)Boot-Routine: Sie lädt den Code im allerersten physikalischen Sektor (MBR Master Boot Record) einer Diskette, Festplatte oder eines Servers und übergibt ihm die weitere Kontrolle für den Startvorgang
• Diese Routinen werden automatisch beim Einschalten des Rechners ausgeführt.
Arbeitsspeicher/Speicherbausteine/RAM)
Der Arbeitsspeicher (auch Hauptspeicher) eines Computers ist der Speicher, in dem Datenobjekte, also Programme und die von diesen im Mikroprozessor verarbeiteten Nutzdaten, abgelegt und zu einem späteren Zeitpunkt (unverändert) abgerufen werden können.
Der Arbeitsspeicher ist ein durch Adressen strukturierter Bereich, der Binärwörter fester Größe aufnehmen kann.
Arbeitsspeicher besteht heute meist aus dem Speichermedium RAM, das zwar schnell arbeitet, aber im Vergleich zu magnetischen Speichermedien teuer ist. Der Arbeitsspeicher moderner Computer ist flüchtig, d.h. dass alle Daten nach dem Abschalten der Energieversorgung verloren gehen. Die häufigste Bauform für den Einsatz in Computern ist das Speichermodul.
Daneben gibt es Hintergrundspeicher, zur kostengünstigeren, dauerhaften Ablage großer Datenmengen. Das bekannteste Beispiel dafür sind Festplatten.
Eine weitere Speicherart heißt ROM, ein Nur-Lese-Speicher, der Daten und Programme wie z.B. das BIOS in einem nichtflüchtigen Speicher dauerhaft hält.
Externe Speicher:
Eine oder mehrere unbiegsame Platten, die mit einem Material beschichtet sind, das eine magnetische Aufzeichnung von Daten ermöglicht. Eine Festplatte rotiert mit 3600 Umdrehungen pro Minute.
Die Schreib-/Leseköpfe schweben auf einem Luftkissen von etwa 3 bis 10 Millionstel Zentimenter Dicke über der Plattenoberfläche. Festplatten bieten viel schnellere Zugriffe als Disketten und haben eine deutlich höhere Speicherkapazität.
CD-ROM:
die Abkürzung von Compact Disc Read-Only Memory (etwa: Kompaktspeicherplatte mit Nur-Lese-Speicher).
Mit dieser Technik wurde eine Form der Speicherung realisiert, die durch eine hohe Speicherkapazität (etwa 600 Megabytes) und den Einsatz von Laseroptik zum Datenlesen anstelle von magnetischen Methoden gekennzeichnet ist. CD-ROMs waren lange Zeit reine Nur-Lese-Speicher, die man aber inzwischen auch einmalig (CDR) oder mehrmalig (CDRW) beschreiben (brennen) kann.
Der Computer