Скачать книгу

das Publikum: »can you see the moon?«, um dann mit seinem Lied fortzufahren:

      »Giant steps are what you take,

      Walking on the moon,

      I hope my leg don’t break,

      Walking on the moon,

      We could walk forever.«

      Ist das der Zeiten eigener Geist, den man den Geist der Zeiten heißt? Wie wäre der Eintrittskartenverkauf wohl verlaufen, wenn damals schon Facebook und Twitter verfügbar gewesen wären?

      Im Jahr 1981 stellte die Firma IBM einen »Portable Computer« PC vor. Damit wurde auf ein Angebot reagiert, dass eigentlich schon seit 1977 auf dem Markt war, nämlich die »Personal Computer« der Firma Apple – die hießen auch »PC« und das schon länger. IBM hatte sich, wie andere Großrechnerhersteller der damaligen Zeit, mit Skepsis die Frage gestellt, wozu in aller Welt ein Mensch einen »persönlichen Rechner« auf seinem Schreibtisch brauchen könnte. Wofür sollte ein solcher PC wirklich gut sein? Was sollte denn damit bitteschön berechnet werden können – oder gar müssen? Man ging deshalb das Thema PC seitens IBM ein wenig halbherzig an. Ein eigenes PC-Betriebssystem wollte IBM nicht entwickeln, man ließ sich deshalb ein »Disc Operating System« (DOS) von einem Jungunternehmer namens Bill Gates liefern.

       Professor Dr. Thomas Wolf, Berlin

       Exkurs – Die IT-Abteilung und ihre Leitung im Wandel der Zeit – Der PC auf dem Schreibtisch erscheint

      Wenn man das so liest, dann muss man wissen, dass der »Computer am Arbeitsplatz« sozusagen über Umwege eingeführt worden ist. In der ersten Hälfte der 1980er-Jahre bahnte sich in der wissenschaftlichen Welt – nicht nur bei meinem damaligen Arbeitgeber Merck in Darmstadt – eine Revolution in der IT an. Man könnte sagen, dass die langen Anwendungs-Entwicklungszeiten und die langen Antwortzeiten der Zentralrechner durch eine quasi »Guerilla-Taktik« überwunden werden konnten. Die Beschaffung und Inbetriebnahme von komplexen und teuren Messgeräten in den Laboren erforderte eine dezentrale IT zu deren Steuerung und Betrieb. An diesen Geräten gab es eigene Prozessrechner.

      Diese relativ kleinen betrieblichen Prozessrechner sollten später als »PC« bekannt werden. Sie konnten als Laborausstattung »under cover« an der zentralen IT vorbei als Auswerteeinheiten beschafft werden. Ihre Kosten galten nicht als IT – sondern als Labor-Kosten und fielen daher nicht weiter auf. Aber man konnte – welch ein Wunder – damit alles Mögliche machen, wofür man vorher die Leistungen der zentralen IT brauchte. Allerdings reagierte das zentrale IT-Management wenig zielführend. Statt diese Entwicklungen der dezentralen IT zum Nutzen des Unternehmens zu kanalisieren, sah es seine Aufgabe vor allem darin, die dezentralen Beschaffungswege zu behindern. Es sollte möglichst die »ganze IT« weiterhin auf den bewährten Produkten der Firma IBM basieren.

image

      Ein – wie es auf dem Gehäuse steht – »Personal Computer« des Fabrikats Casio. Er ist mittels BASIC programmierbar, hat eine Tastatur und einen kleinen graphischen Bildschirm. Abgebildet ist das Exemplar, das ich mir ungefähr im Jahr 1983 zum Beginn des Studiums gekauft hatte.

      Diese erste Generation der Rechenzentrumsleitung, die »Chief Information Officers« (CIOs), hatten vor allem die beiden Aspekte der Technik und der Kosten im Blick. Solange alles zentral lief, war dieses CIO-Monopol der Technik und Kompetenz unangreifbar. Es erodierte stark ab Mitte der 1980er-Jahre, spätestens mit der Verbreitung der PCs. Mit der explosionsartigen Verbreitung der PCs begann die große Zeit der dezentralen IT, die scheinbar viel billiger war als die zentrale. Der Aufwand für Entwicklung und Betrieb wurde von Anwendern nebenher erledigt, und deren Gehälter tauchten nicht als IT-Kosten auf. Einige »PCs« erreichten die Leistungsfähigkeit von kleinen dezentralen Rechenzentren.

      Auf der Herstellerseite hatte diese Entwicklung einen massiven Umbruch zur Folge. Die Zeit des Quasi-Monopols der IBM endete, es folgte der Aufstieg von Firmen, wie erst HP, dann auch Microsoft, Compaq oder auch Dell. Apple betrat den Weltmarkt. Andere Firmen, wie etwa Digital Equipment, verschwanden ganz.

      Nach der Erosion und dem Wandel der IT von zentral zu dezentral in den 1980er-Jahren konnte man einen ähnlichen Effekt in den 2010er-Jahren beobachten. Diesmal erfolgte eine Erosion der IT von dienstlich zu privat. Der Grund hierfür war das Aufkommen der Smartphones und die damit verbundene unmittelbar personenbezogene IT. So erfolgte etwa die Kommunikation zwischen Beschäftigten untereinander und wiederum mit der Kundschaft über Apps der – notabene privat beschafften – Smartphones. Auf der Herstellerseite wurde diese Zeit des »bring your own device« vor allem von der Firma Apple und ihren Produkten maßgeblich mitgestaltet.¶

      Im Informatik-Grundstudium der Jahre 1982 bis 1984 hatte man in aller Regel keinen eigenen PC zur Verfügung. Denn ein solches Gerät war noch ziemlich teuer in der Anschaffung. Ein Computer, den man sich eventuell leisten konnte, war seit dem Ende der 1970er-Jahre in der Form von programmierbaren Taschenrechnern verfügbar. Es gab auch bereits die sogenannten »Taschencomputer«, »Pocket Computer« (PC), die mit BASIC programmierbar waren. Sie kamen etwa ab dem Jahr 1982 in den Verkauf und kosteten einige Hundert D-Mark. Solche Geräte konnten sich Studierende durchaus leisten. Sie waren für die Lösung ingenieurmathematischer Probleme ganz hilfreich.

image

      Ein IBM-Lochkartenstanzer, wie er in der betrieblichen Datenverarbeitung und im Informatikstudium zu Beginn der 1980er-Jahre zum Einsatz kam. Exponat des »technikum29 Computermuseum« in Kelkheim (Taunus). Solche Geräte waren in der Datenverarbeitung weit verbreitet, und damals war es nicht vorstellbar, dass sie jemals nicht mehr eingesetzt werden würden. Der Lochkartenstanzer war das einzige technische Gerät, mit dem man im Informatik-Grundstudium in Interaktion treten konnte. Der eigentliche Computer der Serie SIEMENS 7.500 mit Betriebssystem BS2000 des THD-Rechenzentrums stand, den Studierenden nicht direkt zugänglich, in einem separaten Raum.

      Im Grundstudium an der TH Darmstadt wurden Programmieraufgaben am Großrechner des Rechenzentrums des Fachbereichs Informatik nicht etwa in BASIC, sondern in den Programmiersprachen PASCAL, ASSEMBLER oder auch LISP durchgeführt. Es gab eine Anlage aus der Serie SIEMENS 7.500 mit dem Betriebssystem BS2000, die für uns Studenten im Batchbetrieb lief. Der Rechner stand in einem eigenen großen und klimatisierten Raum – und er war für Studierende wie mich nicht direkt zugänglich. Wir mussten unsere handschriftlich entworfenen Programmtexte mit einem Lochkartenstanzer in Lochkartenstapel umwandeln. Der Stapel, der »Batch«, wurde dann an ein Lesegerät abgegeben – und das war es dann, in aller Regel, für diesen Tag. Der Rechner las das Lochkarten-Programm ein und führte es irgendwann aus. Das Ergebnis war ein Ausdruck auf grünlich-gräulichem Recycling-Endlospapier, den das Programm produziert hatte und der auf einem superlauten Trommeldrucker ausgedruckt wurde. Dieser Ausdruck konnte durchaus erst über Nacht erscheinen und dann am nächsten Tag an einer Art Ausgabetheke abgeholt werden. Machte man in der Übung einen Fehler, dann kostete ein neuer Versuch wieder einen ganzen Tag.

      Am Fachbereich Informatik an der THD war das Studium der Informatik noch stark an traditionelle Lehrangebote angelehnt, um den »Work Load« des Studiums zu erzielen. Wir hörten im Grundstudium Analysis I und II, Lineare Algebra I und II, Wahrscheinlichkeitsrechnung, Elektrotechnik und noch anderes mehr. Man fragte sich als Student bei einigen dieser Fächer auch damals schon, was diese mit der Praxis der Informatik »als solcher« zu tun haben könnten. Die Vorlesungen im Grundstudium waren als Massenveranstaltungen mit mehreren hundert Zuhörern ausgelegt.

      Der Mathematik-Professor in Analysis gefiel sich selbst sehr darin, den Studierenden seine Fähigkeiten im arithmetischen Kopfrechnen zu demonstrieren. Er konnte quasi, »in Echtzeit« vor sich hinmurmelnd, irgendwelche gerade vorbeikommenden Aufgaben lösen. Er sagte etwa so etwas wie, »14 mal 26, das macht 364«, einfach so daher. Einmal murmelte er ein »256 im Quadrat« – und er war noch nicht beim »das macht« angelangt, als ein neben mir sitzender Informatik-Kommilitone im großen Hörsaal »65 536« nach unten brüllte. Alle wandten sich nach ihm um, was er mit einem hochroten Kopf quittierte. Es war klar, dass er das nie und nimmer in dieser Zehntelsekunde

Скачать книгу