ТОП просматриваемых книг сайта:
Digitalisierung verstehen. Hannes Androsch
Читать онлайн.Название Digitalisierung verstehen
Год выпуска 0
isbn 9783710605680
Автор произведения Hannes Androsch
Жанр Изобразительное искусство, фотография
Издательство Bookwire
Es gibt darüber hinaus noch zahllose andere Kategorien, die den Arbeitsalltag von Informatikern zur Wissenschaft machen. Algorithmen werden meist in einer Kombination von unterschiedlichen Methoden erstellt und verwendet, wobei die vielfältigen Verknüpfungsvarianten eine beträchtliche Menge an Einsatzmöglichkeiten bieten.
Mit diesen regelbasierten Algorithmen, die in exakt vorgegebenen Einzelschritten vom Menschen bestimmt werden, lassen sich erstaunlich leistungsstarke Programme erstellen.
Selbstlernende Algorithmen
Eine andere Art von Algorithmen, die selbstlernenden Algorithmen, die in der Handhabung aufwendiger sind, finden dort Anwendung, wo die menschliche Logik zur Anleitung zu kurz greift und das Schreiben von Anweisungslisten zu keiner Lösung führen würde. Angelehnt an das Lernverhalten des menschlichen Gehirns oder jenes von entwickelten Tieren, lernt der Algorithmus durch die „künstliche“ Generierung von Wissen aus Erfahrung. Ähnlich wie bei der Abrichtung von Tieren wird ein klares Ziel definiert, das durch Belohnung für gutes und Ignorieren von schlechtem Verhalten samt möglichst vielen Wiederholungen erreicht werden soll.
Lernende Algorithmen haben den Vorteil, Objekte in Bildern wahrnehmen zu können, gesprochene Worte deuten und sie sogar in eine andere Sprache übersetzen zu können. Sie haben aber auch den Nachteil gegenüber regelbasierten Algorithmen, dass sich die „künstliche Intelligenz“ ihre Wege zur Lösung des Problems selbst sucht und für den menschlichen Beobachter somit nicht nachvollziehbar ist, was daher oftmals als Blackbox bezeichnet wird.
Ein künstliches System lernt aus Beispielen und kann diese nach Beendigung der Lernphase verallgemeinern. Beim sogenannten Maschinellen Lernen, dem Machine Learning, werden nicht einfach Beispiele auswendig gelernt, sondern Muster und Gesetzmäßigkeiten in den Lerndaten. Daher kann dieses System auch Unbekannte derselben Art beurteilen oder auch am Lernen unbekannter Daten durch Überanpassung, overfitting, scheitern.17 18
Die Anwendungsbereiche lernender Algorithmen – auch unter dem Überbegriff künstliche Intelligenz (KI) bekannt – werden immer zahlreicher, weil die Erfolge dieses Verfahrens laufend größer werden. Von automatisierten Diagnoseverfahren, Erkennen von Kreditkartenbetrug, Aktienmarktanalysen, Klassifikation von Nukleotidsequenzen, Sprach- und Texterkennung bis hin zu autonomen Systemen.
Big Data: Daten als Treibstoff des 21. Jahrhunderts
Wenn auch die Bezeichnung „Big Data“ eine Begrifflichkeit der neuen digitalen Welt ist, so ist die Praxis des Datensammelns eine durchaus lang geübte. Schon in der Antike erstellten Regierungen erste Statistiken. Könige oder Kaiser wollten wissen, wie viel Geld die nächsten Steuererhebungen einbringen würden und wie viele Soldaten das Land im Kriegsfall stellen könne. Die ersten Beweise für solche Erhebungen lassen sich anhand von Tonscherben auf 3800 v. Chr. datieren. Im alten Babylon wurden vor fast 6.000 Jahren Volkszählungen durchgeführt und im antiken Griechenland fanden sich überdies laufende Aufzeichnungen betreffend Getreideeinfuhr oder Verzeichnisse zollpflichtiger Waren. Im römischen Reich wurden ab dem 6. Jahrhundert v. Chr. alle fünf Jahre Bevölkerungserhebungen durchgeführt.19
Daten verdrängen im 21. Jahrhundert in der Tat das Erdöl als Wirtschaftsfaktor. Sie sind universelle Antriebskraft für nahezu alle Technologien der Digitalisierung und sie machen jene Personen und Institutionen reich, die sie besitzen, mit ihnen Handel treiben oder sie auswerten. Die gesamte künstliche Intelligenz (KI) basiert durch den technologischen Fortschritt auf Big Data, befeuert mittels der neuartigen Methoden des Machine Learnings.
Big Data als allgemeingültige Definition wird man vergeblich suchen. Gleichwohl das Erfassen und Speichern großer Mengen an Informationen zur Analyse in den frühen 2000er-Jahren an Bedeutung gewann, ist eine gängige Definition von Big Data nach wie vor jene, die Doug Laney, Analyst des US-amerikanischen Marktforschungsunternehmens Gartner, bereits 2001 mit seinem 3-V-Modell folgendermaßen erklärt hat: Volume, Velocity und Variety.
Volume steht für die exorbitant wachsende Datenmenge, die aufgrund der technologischen Möglichkeiten gewonnen, gespeichert und verarbeitet wird. Die Prognose zum Volumen der jährlich weltweit generierten digitalen Datenmenge für das Jahr 2025 beläuft sich auf 175 Zettabyte20 – im Vergleich zu 33 Zettabyte im Jahr 2018.21 Gesammelt wird aus den unterschiedlichsten Quellen von sozialen Medien, der öffentlichen Verwaltung, über geschäftliche Transaktionen bis zum automatisierten Informationsaustausch in der Machine-to-Machine-Kommunikation.
Für die Geschwindigkeit, mit der sich Daten generieren, auswerten und nahezu in Echtzeit verarbeiten lassen, steht Velocity. Jeder Klick, jeder View und jedes Einloggen im Internet wird mit Sicherheit irgendwo erfasst. Ein großer „Datensammler“ dabei ist die Suchmaschine Google. Das Internet hat 4,54 Milliarden Nutzer.22 92,81 Prozent aller Internet-Nutzer suchen über Google. Bereits 2015 sammelte Google mindestens 20 Petabyte, das sind 2015 Byte, an Daten. Wollten wir 20 Petabyte auf USB-Sticks von je 4 Gigabyte speichern, bräuchten wir fünf Millionen Stück.
Für die Vielfalt der Datentypen und Datenquellen von Daten aus herkömmlichen Datenbanken bis hin zu unstrukturierten Textdokumenten, E-Mail, Video, Audio, Börsentickerdaten und Finanztransaktionen steht Variety. Diese Daten, die weltweit zu 80 Prozent vorkommen, sind unstrukturiert und weisen auf den ersten Blick keinerlei Zusammenhänge auf. Durch Big-Data-Suchalgorithmen können diese Daten strukturiert eingeordnet und auf Zusammenhänge untersucht werden. Neben herkömmlichen Datensätzen zählen auch Bilder, Videos und Sprachaufzeichnungen dazu.23
Dieses Grundmodell wird häufig durch ein viertes und fünftes V erweitert: Veracity steht für die Wahrhaftigkeit und Glaubwürdigkeit von Daten und Value für den unternehmerischen Mehrwert. Mittlerweile haben viele Unternehmen eigene Datenplattformen mit prall gefüllten Datenpools aufgebaut und viel Geld in die Infrastruktur investiert, um Business Value zu generieren.
„Fifth Generation“: 5G steht in den Startlöchern
Während die derzeit gebräuchlichste Technologie 4G für die private Nutzung weiterhin optimiert wird, ist die fünfte Generation drahtloser Breitbandtechnologie vor allem für die Industrie durch die zunehmende Vernetzung von intelligenten Maschinen interessant.
Unternehmen wollen mit 5G eigene Mobilfunknetze auf ihren Fabriksgeländen aufbauen. Autonom fahrende Autos brauchen den neuen Mobilfunkstandard und auch in der Telemedizin oder in der Landwirtschaft soll diese Technologie künftig eine wichtige Rolle spielen. Die Produktivität von Österreichs Wirtschaft könnte mit einer erstklassigen digitalen Infrastruktur, bei der die 5G-Technologie eine Schlüsselrolle spielt, um durchschnittlich 15,2 Prozent oder 58,7 Milliarden Euro gesteigert werden, wie eine Modellrechnung des Österreichischen Infrastrukturreports 2020 verdeutlicht. Das größte industrielle Forschungsnetz, ein weltweit einmaliges Ökosystem zur Erforschung und Entwicklung von 5G-Technologien für die Industrie 4.0, entsteht auf einem Campus in Aachen. Gemeinsam mit Projektpartnern sollen dort unter der Leitung des Fraunhofer-Instituts für Produktionstechnologie (IPT) künftig Anwendungen und Lösungen für die vernetzte Produktion über den neuen Mobilfunkstandard entwickelt und erprobt werden.
Dennoch hinkt Europa beim Ausbau der 5G-Infrastruktur gegenüber Nordamerika, Nordostasien und den Golf-Staaten stark hinterher, einzig die Schweiz hat das erste 5G-Netz in Europa aufgebaut und ist weltweit einer der Vorreiter der neuen Mobilfunk-Generation. In Nordostasien mit China und Südkorea waren Ende 2020 bereits 9 Prozent aller Mobilfunkverträge auf 5G umgestellt worden, während es in Westeuropa lediglich 1 Prozent war, so das Ergebnis des aktuellen Ericsson Mobility Report, der im Juni 2021 in Stockholm veröffentlicht wurde.
Bis zum Jahr 2026 soll das dynamische Wachstum vor allem von Nordamerika ausgehen, wo der 5G-Anteil von derzeit über 4 Prozent auf 84 Prozent steigen soll. In Nordostasien würden dagegen bis 2026 nur zwei Drittel, das wären 65 Prozent, aller Mobilfunkverträge 5G nutzen. In absoluten Zahlen liegen die Asiaten mit 1,4 Milliarden 5G-Verträgen allerdings weit voran. Die Schweiz hat neben Südkorea und einzelnen Städten in den USA 5G bereits in Betrieb genommen. In Österreich dürfte 5G frühestens 2023 für den