ТОП просматриваемых книг сайта:
Die Geschichte des Computers. Axel Bruns
Читать онлайн.Название Die Geschichte des Computers
Год выпуска 0
isbn 9783738021455
Автор произведения Axel Bruns
Жанр Математика
Издательство Bookwire
Axel Bruns
Die Geschichte des Computers
Wie es bis zur Form des heutigen 'PC' kam.
Dieses ebook wurde erstellt bei
Inhaltsverzeichnis
Ein Computer
Ein Computer ist ein Gerät, das mittels programmierbarer Rechenvorschriften Daten verarbeitet.Charles Babbage und Ada Lovelace gelten durch die von Babbage 1837 entworfene Rechenmaschine Analytical Engine als Vordenker des modernen universell programmierbaren Computers, während Konrad Zuse (Z3, 1941 und Z4, 1945), John Presper Eckert und John William Mauchly (ENIAC, 1946) die ersten funktionstüchtigen Geräte dieser Art bauten. Bei der Klassifizierung eines Geräts als universell programmierbarer Computer spielt die Turing-Vollständigkeit eine wesentliche Rolle, benannt nach dem englischen Mathematiker Alan Turing, der 1936 das logische Modell der Turingmaschine eingeführt hat.
Die frühen Computer wurden auch (Groß-)Rechner genannt; deren Ein- und Ausgabe der Daten war zunächst auf die Verarbeitung von Zahlen beschränkt. Zwar verstehen sich moderne Computer auf den Umgang mit weiteren Daten, wie beispielsweise Buchstaben und Töne. Diese Daten werden jedoch innerhalb des Computers ebenfalls in Zahlen umgewandelt und als Zahlen verarbeitet, weshalb ein Computer auch heute noch eine Rechenmaschine ist.
Mit zunehmender Leistungsfähigkeit eröffneten sich neue Einsatzbereiche. Computer sind heute in allen Bereichen des täglichen Lebens vorzufinden, meistens in spezialisierten Varianten, die auf einen vorliegenden Anwendungszweck zugeschnitten sind. So dienen integrierte Kleinstcomputer (eingebettetes System) zur Steuerung von Alltagsgeräten wie Waschmaschinen, Videorekorder oder zur Münzprüfung in Warenautomaten; in modernen Automobilen dienen sie beispielsweise zur Anzeige von Fahrdaten und übernehmen in „Fahrassistenten“ diverse Manöver selbst.
Universelle Computer finden sich in Smartphones und Spielkonsolen. Personal Computer dienen der Informationsverarbeitung in Wirtschaft und Behörden sowie bei Privatpersonen; Supercomputer werden eingesetzt, um komplexe Vorgänge zu simulieren, z. B. in der Klimaforschung oder für medizinische Berechnungen.
Der englische Begriff computer, abgeleitet vom Verb (to) compute (aus Lateinisch: computare „berechnen“), bezeichnete ursprünglich Menschen, die zumeist langwierige Berechnungen vornahmen, zum Beispiel für Astronomen im Mittelalter. In der Kirchengeschichte war mit der Hinrichtung Jesu eine Ablösung von der jüdischen und eine Hinwendung zur römischen Zeitrechnung verbunden. Die hieraus resultierenden Berechnungsschwierigkeiten des Osterdatums dauerten bis zum Mittelalter an und waren Gegenstand zahlreicher Publikationen, häufig betitelt mit "Computus Ecclesiasticus". Doch finden sich noch weitere Titel, z.B. von Sigismund Suevus 1574, die sich mit arithmetischen Fragestellungen auseinandersetzten. Der früheste Text, in dem das Wort Computer isoliert verwendet wird, stammt von 1613. In der New York Times tauchte das Wort erstmals am 2. Mai 1892 in einer Kleinanzeige der US-Marine mit dem Titel „A Computer Wanted“ (Ein Rechenspezialist gesucht) auf, wobei Kenntnisse in Algebra, Geometrie, Trigonometrie und Astronomie vorausgesetzt wurden.
1938 stellte Konrad Zuse den ersten frei programmierbaren mechanischen Rechner her (Z1), der im heutigen Sinne bereits dem Begriff entsprach. In der Namensgebung des 1946 der Öffentlichkeit vorgestellten Electronic Numerical Integrator and Computer (ENIAC) taucht erstmals das Wort als Namensbestandteil auf. In der Folge etablierte sich Computer als Gattungsbegriff für diese neuartigen Maschinen.Grundsätzlich unterscheiden sich zwei Bauweisen: Ein Computer ist ein Digitalcomputer, wenn er mit digitalen Geräteeinheiten digitale Daten verarbeitet (also Zahlen und Textzeichen); er ist ein Analogcomputer, wenn er mit analogen Geräteeinheiten analoge Daten verarbeitet (also kontinuierlich verlaufende elektrische Messgrößen wie Spannung oder Strom).Heute werden fast ausschließlich Digitalcomputer eingesetzt. Diese folgen gemeinsamen Grundprinzipien, mit denen ihre freie Programmierung ermöglicht wird. Bei einem Digitalcomputer werden dabei zwei grundsätzliche Bestandteile unterschieden: Die Hardware, die aus den elektronischen, physisch anfassbaren Teilen des Computers gebildet wird, sowie die Software, die die Programmierung des Computers beschreibt.Ein Digitalcomputer besteht zunächst nur aus Hardware. Die Hardware stellt erstens einen so genannten Speicher bereit, in dem Daten portionsweise wie auf den nummerierten Seiten eines Buches gespeichert und jederzeit zur Verarbeitung oder Ausgabe abgerufen werden können. Zweitens verfügt das Rechenwerk der Hardware über grundlegende Bausteine für eine freie Programmierung, mit denen jede beliebige Verarbeitungslogik für Daten dargestellt werden kann: Diese Bausteine sind im Prinzip die Berechnung, der Vergleich und der bedingte Sprung. Ein Digitalcomputer kann beispielsweise zwei Zahlen addieren, das Ergebnis mit einer dritten Zahl vergleichen und dann abhängig vom Ergebnis entweder an der einen oder der anderen Stelle des Programms fortfahren. In der Informatik wird dieses Modell theoretisch durch die Turing-Maschine abgebildet; die Turing-Maschine stellt die grundsätzlichen Überlegungen zur Berechenbarkeit dar.Erst durch eine Software wird der Digitalcomputer jedoch nützlich. Jede Software ist im Prinzip eine definierte, funktionale Anordnung der oben geschilderten Bausteine Berechnung, Vergleich und bedingter Sprung, wobei die Bausteine beliebig oft verwendet werden können. Diese Anordnung der Bausteine, die als Programm bezeichnet wird, wird in Form von Daten im Speicher des Computers abgelegt. Von dort kann sie von der Hardware ausgelesen und abgearbeitet werden. Dieses Funktionsprinzip der Digitalcomputer hat sich seit seinen Ursprüngen in der Mitte des 20. Jahrhunderts nicht wesentlich verändert, wenngleich die Details der Technologie erheblich verbessert wurden.
Analogrechner funktionieren nach einem anderen Prinzip. Bei ihnen