Leben auf Autopilot - Gerd Pfitzenmaier - ebook

Leben auf Autopilot ebook

Gerd Pfitzenmaier

0,0

Opis

Die Digitalisierung hat die Welt revolutioniert und unser Leben erleichtert. Für die nahe Zukunft versprechen Softwareentwickler wahre Wunderdinge: Autopiloten ermöglichen unfallfreies Fahren, computergesteuerte Windparks die überfällige Energiewende. Doch was, wenn unsere Versorgungsnetze dadurch immer anfälliger werden? Entscheidet sich der Bordcomputer im Auto im Falle eines Unfalls 'richtig', wenn er das Leben des Fahrers schützt, das des Fußgängers aber nicht? Gerd Pfitzenmaier unterzieht den Hype um das Internet der Dinge einer Prüfung und plädiert dafür, nicht alles umzusetzen, was möglich ist. Denn jenseits der Annehmlichkeiten lauern auch Risiken – vom einfachen Kurzschluss bis hin zur Unwetterkatastrophe, die Stromnetze lahmlegt, ganz zu schweigen von Sabotageakten durch Hacker und Terroristen. Das Buch geht der Frage nach, wie viel Macht wir der Technik zugestehen wollen und welches Leben erstrebenswert ist.

Ebooka przeczytasz w aplikacjach Legimi na:

Androidzie
iOS
czytnikach certyfikowanych
przez Legimi
czytnikach Kindle™
(dla wybranych pakietów)
Windows
10
Windows
Phone

Liczba stron: 171

Odsłuch ebooka (TTS) dostepny w abonamencie „ebooki+audiobooki bez limitu” w aplikacjach Legimi na:

Androidzie
iOS



Gerd Pfitzenmaier
LebenaufAutopilot
Warum wirder Digitalisierungnicht blindvertrauen sollten
Bibliografische Information der Deutschen Nationalbibliothek: Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
© 2016 oekom verlag, MünchenGesellschaft für ökologische Kommunikation mbH,Waltherstraße 29, 80337 München
Lektorat: Laura Kohlrausch, oekom verlagKorrektorat: Maike SpechtLayout und Satz: Ines Swoboda, oekom verlag
E-Book: SEUME Publishing Services GmbH, Erfurt
ISBN 978-3-96006-137-3

Inhalt

Kapitel 1Der Wert des Fortschritts
Wie Künstliche Intelligenz die Welt verändert
Kapitel 2Alles hat zwei Seiten
Die digitale Welt schafft neue Märkte, aber sie macht unfrei, krank und dumm
Kapitel 3Mahner in der Wüste
Warum niemand auf Kassandra hört
Kapitel 4Das Steuer aus der Hand geben
Wie die Informationstechnologie das Auto neu erfindet
Kapitel 5Von regional zu digital?
Wie die technischen Entwicklungen unsere Gesellschaft verändern
Kapitel 6Die Chance
Was noch geschehen muss, damit die Zukunft so rosig wird wie geplant
Anmerkungen
Über den Autor

Kapitel 1Der Wert des Fortschritts

Wie Künstliche Intelligenz die Welt verändert
Schöne neue Welt: Spätestens seit März 2016, als ein Computer erstmals einen Menschen in dem hochkomplizierten Spiel Go schlug, verschmelzen Fiktion und Wirklichkeit. Die kühnsten Fantasien der von künstlicher Intelligenz (KI) träumenden Informatiker und Technikfans scheinen sich zu realisieren.1 Die Tech-Visionäre erspähen in der Morgenröte, die am Horizont dämmert, eine Erde, auf der Roboter den Menschen Arbeit oder auch die lästige Parkplatzsuche abnehmen, Algorithmen die Zukunft planen und Maschinen im »Internet der Dinge« (IoT) miteinander kommunizieren, um den Wohlstand der Industrienationen exponentiell zu vermehren.
Diese Zukunft beginnt genau jetzt!
In Siebenmeilenstiefeln überwinden die Menschen auf dem Weg in diese neue Welt immer mehr Grenzen, die ihnen bislang gesetzt sind und sie zwingen, im Hier und Jetzt zu leben. Das sollen leistungsstärkere Rechner ändern. Sie ermöglichen die Flucht in die Zukunft – eine Zukunft, die teils irreale Züge annimmt, denn dank der fortschrittlichen Datenverarbeitung begeistern sich immer mehr Menschen für eine bloß virtuelle Schein- und Nebenwelt, in der sich Wirklichkeit und Fiktion mischen. So nähern wir uns einer Zeit, in der die alles verändernde Kraft der sogenannten künstlichen Intelligenz unser aller Leben wandeln soll: Künftig werden immer öfter mathematische Formeln, die wahrscheinliche Ergebnisse im Voraus zu berechnen versuchen, Entscheidungen für uns Menschen treffen.
Schon jetzt leisten die Prozessoren, die Roboter steuern, Erstaunliches. Der durch die Welt trampende Hitchbot mit dem Mülleimerdeckel auf dem Kopf in gelben Kindergummistiefeln war 2015 ein »lebender« Beweis für die These. Bis Vandalen seine Reise durch Kanada und Deutschland brutal beendeten, war die Maschine selbstständig unterwegs, um Menschen zu treffen und die Distanz zwischen ihm und ihnen zu überwinden. »Das Experiment glückte: Die deutschen Autofahrer nahmen ihn mit und waren nett zu ›Hitchbot‹«, schrieb die Süddeutsche Zeitung über das Experiment.2
Der humanoide Roboter trank Bier in Bayern und besuchte den Kölner Karneval oder ein Football-Match in den USA. Es hätte dieses Beweises, dass Hitchbot die Fähigkeit besaß, mit Menschen zu kommunizieren, gar nicht unbedingt noch gebraucht. Vielen Menschen ist auch so klar: Maschinen sind nicht mehr nur für »niedere« Arbeiten einsetzbar. Sie taugen längst zu weit mehr als zu stupider Sammlertätigkeit oder monotonem Sortieren und schnellem Addieren. Mittlerweile steuern die Prozessoren die Roboter um ein Vielfaches exakter, als dies ihre menschlichen Kollegen je könnten. Sie sind längst nicht mehr nur reine Diener und Helfer für uns Menschen, dafür gemacht, uns schwere Arbeit abzunehmen oder diffizile Feinheiten mit »ruhigerer Hand« zu fertigen. Sie beobachten genauer als ihr Pendant aus Fleisch und Blut und reagieren viel schneller auf ungeplante Abweichungen von einer definierten Norm. Damit reduzieren sie Ausschuss beim Produzieren, sparen Material oder Energie. Selbst bislang nur von hoch spezialisierten Medizinern praktizierte Aufgaben machen die Computer den Ärzten immer häufiger strittig. Sie »lernen heute schon, Histologen zu imitieren, die auf Fotos von menschlichem Gewebe zum Beispiel Krebszellen erkennen«,3 weiß der KI-Forscher Jürgen Schmidhuber und glaubt, dass Roboter dies bald besser können als die Ärzte selbst.
Weil die zunehmend engere Vernetzung Computer in die Lage versetzt, immer schneller und treffsicherer aus dem immer volleren Datenpool Ergebnisse herauszulesen, rückt der Zeitpunkt näher, an dem die Verknüpfungsleistung der künstlichen Gehirne jene der biologischen Schaltzentralen in den Köpfen des Homo sapiens übersteigt. Damit erreichen wir einen kritischen Punkt im Mensch-Maschine-Verhältnis: Wir Menschen, die bis dato diese Computer zusammenbauen und ihnen mit unserer Software erst Macht einhauchen, könnten dann von ebenjener Macht übertrumpft werden. Bislang bleibt die Aufgabe, Entscheidungen zu fällen, noch dem menschlichen Geist vorbehalten. In nur fünf Jahrzehnten bauen Ingenieure aber vermutlich bereits Maschinen, deren jeweilige Prozessoren »so viel rechnen können wie alle Menschenhirne zusammen«.4
Bald erreichen wir einen kritischen Punkt im Mensch-Maschine-Verhältnis.
»Noch übertrifft jedes Kleinkind die Roboter an Schläue«, schreibt Wolfgang Blum 2013 in der Zeit über die seiner Meinung nach damals noch bescheidene Aussicht der Computer, beim Wetteifern mit der Denkleistung des Menschen für sich zu punkten.5 Das war ehedem: Die künstlichen Gehirne haben inzwischen alle Chancen, ihr Manko, das sie zurzeit noch zum Verlierer im Gedankenwettstreit mit dem Menschen abstempelt, schon sehr bald wettzumachen. Sie holen in rasender Geschwindigkeit nach, was ihnen an kombinatorischer Brillanz fehlt.
Der amerikanische Erfinder und Autor Raymond Kurzweil ist in seinem Job als Google’s Director of Engineering eine der Galionsfiguren in der Vorhersage des Zeitpunkts der sogenannten technologischen Singularität, ab dem sich die Technik durch KI so schnell selbst weiterentwickelt, dass die Zukunft des Menschen nicht länger vorhersehbar sein wird. Als Basis dienen ihm und seinen Kollegen die Beobachtungen von Gordon Moore: Der kalifornische Naturwissenschaftler sagte 1965 voraus, die Komplexität von Computerchips verdopple sich etwa alle zwei Jahre (auch wenn er selbst bezweifelte, dass die Rasanz dieser Entwicklung tatsächlich auch immer schnellere und bessere Rechner erzeuge). Aus dieser Beobachtung formulierte Moore eine Regel, die als »Gesetz« in der Informationstechnologie seinen Namen trägt. Das »Moor’sche Gesetz« beschreibt die Geschwindigkeit, mit der die Datenverarbeitung immer schneller und zugleich genauer wird. Sie ist die Formel, welche die Rasanz des Fortschritts definiert. Daraus abgeleitet, kalkuliert Raymond Kurzweil den Zeitpunkt, an dem die künstlichen Intelligenzen der Rechner dem menschlichen Gehirn ebenbürtig werden, noch vor die Mitte des laufenden 21. Jahrhunderts. In gut drei Jahrzehnten soll dieser Tag dämmern. Dann verliert das Menschenhirn den Wettlauf um Leistungskraft und Geschwindigkeit also doch gegen den Computer. Dann ist Homo sapiens nicht mehr derjenige, der alles weiß. Dieses Privileg gebührt – wenn Kurzweil recht behält – etwa um 2045 dem vernetzten und selbst lernenden Computer. Das zeichnet sich am Horizont bereits deutlich ab.
Da wirkt es schon fast wie das berühmte »Pfeifen im Wald«, wenn ein Mitglied im Münchener Chaos Computer Club (CCC) nicht müde wird, zu betonen, dass »Maschinen und damit auch Computer nichts haben, was man als Intelligenz bezeichnen würde«.6 Die Rechner, so leistungsstark sie auch sein mögen, sagt der Chaos-Hacker, der lieber anonym bleiben möchte, »können ausschließlich Befehle abarbeiten, die ihnen ein Mensch vorgibt«. Der Spezialist für Computerprogramme rückt die Welt damit wieder ein Stück ins richtige Lot. Er sagt: »Algorithmen können bloß den Anschein erwecken, intelligent zu handeln.« Das ist ein großer Unterschied!
Computer sind dem Menschen zwar an Schnelligkeit überlegen, das gilt jedoch nur fürs Kombinieren, denn sie arbeiten schematisch. Ein Arbeitsschritt folgt dem nächsten – wenngleich in atemraubendem Tempo. Das große Plus des Menschen aber ist dessen Kreativität – und die intuitive Entscheidung »aus dem Bauch heraus«.
Die rasant technischen Entwicklungen laufen Gefahr, unsere Gesellschaften zu verändern, zu verwässern oder zu zerstören.
Manch ein Protagonist des neuen Maschinenzeitalters schwört dennoch Stein und Bein, dass mit zunehmender Technisierung rosa Zeiten auf dem Globus anbrechen. Zu denen, die daran zweifeln, dass alles, was glänzt, tatsächlich auch Gold ist, gehört dagegen die Wirtschaftsinformatikerin Sarah Spiekermann. Selbst Fachfrau in der Informationsverarbeitung, begegnet sie der IT-Euphorie mit einem ganzen Bündel misstrauischer Fragen. Die Professorin an der Wirtschaftsuniversität Wien erforscht seit Jahren die rasant schnellen technischen Entwicklungen, die das tägliche Leben der Menschen begleiten und immer mehr bestimmen und dabei Gefahr laufen, unsere Gesellschaften und manches kulturgeschichtlich erworbene Gut zu verändern, zu verwässern oder zu zerstören.7
»Es gibt tausend offene Fragen zur Technik im Alltag«,8 schreibt sie daher in einem Zeitungsbeitrag und fordert, es sei endlich Zeit, »Regeln für unseren Umgang mit der Zukunft«9 zu vereinbaren. Sonst könnten wir ein böses Erwachen erleben und irgendwann feststellen, dass der Hype um die angeblichen Segnungen der vernetzten Welt uns mit seiner janusköpfigen Gestalt zugleich auch Unerwünschtes beschert – eben die Rückseite der Medaille. Schlimmer noch: wenn der Hype an Faszination verliert und wir gewahr werden sollten, dass die Rückseite des selbstgeschaffenen Janus längst so übermächtig ist, dass wir sie nicht mehr kontrollieren können. Die Euphorie weicht dann dem Grauen – eine apokalyptische Vorstellung.
Um das zu verhindern, dürfen wir uns nicht unreflektiert von der Faszination dessen, was technologisch machbar erscheint und mitunter sicherlich wünschenswert ist, in den Bann ziehen lassen. Es gilt, abzuwägen, ob alles, was Tech-Begeisterte als Zukunft ausmalen, auch tatsächlich so eintreten soll. Vor allem müssen wir uns immer und überall fragen, wie sich, was technisch funktioniert, auf die Gesellschaft und unser Zusammenleben als Menschen auswirkt.
Das ist wohl die entscheidende Frage.
Sarah Spiekermann legt sich in diesem Punkt fest. Sie schreibt für die technischen und gesellschaftlichen Veränderungen, in die wir bereits tief verstrickt sind, an einer Charta.10 Diese soll uns Menschen eine Leitlinie an die Hand geben: Sie kann uns wie eine Richtschnur bei der Veränderung unserer Welt durch Big Data, Personal Analytics und digitalem Wandel durch das Dickicht lotsen, in dem wir uns neu zurechtfinden und einrichten müssen. Gleichzeitig kann sie uns davor bewahren, im Wettstreit mit den Rechnern das Nachsehen zu haben, weil wir uns zu spät eingestehen, dass der (noch) so begeisternde Fortschritt in der Technik und die angeblichen Annehmlichkeiten der Errungenschaften der Moderne durchaus gravierend sein können. Spiekermann geht es darum, die Zukunftsvisionen der Informatik in ein ethisches Grundgerüst einzupassen. So würde das neue Gebilde, das dort allmählich entsteht, stabiler. Es wäre dann vielleicht tatsächlich das Fundament, auf dem wir gemeinsam mit den Maschinen eine Zukunft gründen könnten.
Technik und Technologien sind an sich nie objektiv oder gar neutral.
Und ein solches Fundament braucht es, denn Technik und Technologien sind an sich nie objektiv oder gar neutral – allen Aussagen zum Trotz. Wer das annimmt, macht einen groben Fehler. Sie sind stets, da von Menschen erdacht und gebaut, ein Ausdruck der Interessen ihrer Schöpfer. Und auch die User (also beispielsweise wir als Endverbraucher) treffen subjektive, von Interessen gesteuerte Entscheidungen, wenn sie zu Technik greifen, weil sie sich davon einen Nutzen versprechen, und dadurch bestimmte Technologien bevorzugen. Das vergessen wir nur oft – oder wir glauben jenen, die behaupten, Technik sei wertfrei. Dabei haben auch die nur ihren eigenen Vorteil im Blick – verschleiern es jedoch bewusst oder unbewusst.
Die neuen Technologien verändern schon jetzt unsere Gewohnheiten. Auch das zählt zum Wandel, der sich bereits klammheimlich in unsere Leben geschlichen hat: »Wir schenken Mitmenschen weniger Vertrauen als Maschinen«,11 warnt Sarah Spiekermann. Gleichwohl weiß sie, dass jene ethische Maschine, für die sie eine Lanze bricht – so wünschenswert sie wäre, weil etwa bereits ihre Entwickler darauf achten, dass sowohl Hardware als auch Software beim späteren Gebrauch die Würde des Menschen nicht verletzen können, sondern sie schützt –, vorerst doch auch nur eine Vision bleiben wird. Noch scheinen beispielsweise bei den Usern von Drohnen die technischen Möglichkeiten für den Einsatz in Cyberkriegen größere Begeisterung wachzurufen als jene Möglichkeiten derselben Technologie, Leben zu schützen.
Umso wichtiger ist es, dem Wandel, der unsere Welt gerade recht grundlegend umwälzt, nicht blauäugig zu vertrauen, sondern kritisch bedenkend zu begegnen. Er lässt sich sicher kaum aufhalten. Dies zu hoffen wäre naiv. Wenigstens aber sollten die Menschen versuchen, die Veränderungen, die viel mehr sind als bloßer Fortschritt der Technik und Verfeinerung von Technologien, bewusst zu steuern. Denn er wirkt sich schon heute massiv auf die Beziehungen zwischen uns Menschen aus. So belegt eine aktuelle Studie beispielsweise die Klage vieler junger Frauen, »es gebe keine romantischen Kerle mehr«, mit Rückbezug auf die technologische Entwicklung. »Keiner lasse mehr dem Verlieben Zeit zu entstehen, zu atmen, zu wachsen. Niemand wisse mehr, wie das geht: sich näherkommen mit Blicken, mit einem Lächeln, schmeichelnden Worten, der ersten scheuen Berührung, endlich tanzen.« Als Grund für diese zunehmende Gefühlsarmut und Gleichgültigkeit nennen die mit der Untersuchung befassten Wissenschaftler die immer weiter gesteigerte Fixierung auf digitale Kommunikationshilfen. Die schafften das zwischenmenschliche Erleben allmählich aus der Welt. Das, so sagen die beobachtenden Experten, verändere die Menschen. Die Welt summiert die Erkenntnisse: »Die Typen stierten nur aufs Handy, online seien sie Maulhelden und Verführer, im direkten Kontakt drucksten sie herum, schlügen die Augen nieder und wüssten nichts zu sagen.«12
Auch die zahlreichen alltäglichen Begegnungen mit den uns immer ähnlicher werdenden Maschinen und unser Bestreben, uns mit ihnen viel enger zu verknüpfen als bisher, dürften sich massiv auf uns Menschen auswirken. Im Kampf um unsere Arbeitsplätze oder bei der Neudefinition unseres Selbstverständnisses im Zusammentreffen mit selbstständig agierenden Maschinen müssen vor allem die Menschen ihre Positionen bestimmen.
Einen Vorgeschmack auf diese Welt der Zukunft erhielten geschätzte 100 Millionen Menschen, als sie im Frühjahr 2016 weltweit live an ihren TV-Bildschirmen und im Internet verfolgten, wie eine Rechenmaschine des Internetkonzerns Google bei dem asiatischen Go-Spiel über das menschliche Gehirn triumphierte. Kaum zwei Jahre zuvor hielten dies Experten noch nicht für möglich. Zwar schlagen Computer schon seit fast genau zwei Jahrzehnten die Champions am Schachbrett: Garry Kasparow, der damals amtierende russische Großmeister auf den 64 Feldern, musste als Weltbester des Königsspiels 1997 vor dem IBM-Großrechner »Deep Blue« seine Segel streichen.13 Das Go-Brett mit seinen je 19 senkrechten und ebenso vielen waagerechten und sich an 361 Schnittpunkten kreuzenden Linien ist jedoch ungleich komplexer als das Feld des Kombinationsspiels Schach. Zudem machen die Kontrahenten beim asiatischen Go mehr, als nur einige Spielzüge vorauszudenken. Es zählen nicht nur Logik und Taktik: Die Intuition der Spieler entscheidet beim Wettbewerb in aller Regel über Sieg oder Niederlage. Zumindest behaupten dies die Könner des Spiels.
Der Supercomputer namens »AlphaGo« trat daher mit seinem sensationellen Erfolg bei dem alljährlichen Wettstreit an der University of Electro-Communications in Japans Hauptstadt Tokio14 den Beweis an, dass künstliche Intelligenz ins scheinbar Unendliche steigerbar ist: Entgegen alle Erwartungen war ein Rechner 2016 erstmals dem menschlichen Großmeister des Go-Spiels überlegen. Dieser Sieg ist kaum geringer als die Neuerfindung der Evolution: Googles Superhirn ist genau der von den IT-Experten so lang erhoffte Beleg einer Genesis 2.0. Die Computer sind inzwischen der menschlichen Intelligenz in Verknüpfungsleistung ebenbürtig – zumindest was kombinatorische Leistungen wie das Go-Spiel angeht. Nach wenigen Monaten, in denen der Rechner namens AlphaGo die Regeln und Kniffe des über 3 000 Jahre alten Brettspiels15 lernte, überrascht er die Experten und seinen Gegner aus Fleisch und Blut beim Go-Turnier mit erstaunlichen Fähigkeiten. AlphaGo lernte nicht nur äußerst rasch zahllose Varianten des Brettspiels. Er versteht sich auch darauf, sie alle in passenden Momenten anzuwenden. Er bringt sich zudem selbst neue Spielzüge bei, »auf die zuvor kein Mensch gekommen war«.16
Damit brauchte das künstliche Rechnerhirn gerade einmal fünf Partien, um seinen menschlichen Kontrahenten in die Schranken zu weisen. Dabei war dieser Meister des Spiels dazu prädestiniert, bei dem Spiel zu brillieren. Der amtierende Welt-Champion und Profispieler Lee Sedol aus Südkorea zog trotzdem mit eins zu vier klar den Kürzeren gegen AlphaGo. Lee Sedol verspielte damit im Frühling 2016 nicht nur das Preisgeld von einer Million Dollar.17 AlphaGo stieß zugleich das bislang geltende Idealbild der Kraft des menschlichen Geistes, die im Konkurrenzstreit um Logik und Taktik einer Maschine noch lange überlegen sein wird, vom Sockel.
Lange Zeit gingen lediglich einige Tech-Begeisterte und Software-Visionäre, die ihre Rechner mit Formeln und Daten füttern, oder die KI-Forscher, deren Arbeitsfeld lange eher am Rande der wissenschaftlichen Disziplinen darbte, von solch menschenähnlichem Können von Computern aus. Zu abstrus erschienen uns Normalsterblichen viele ihrer Vorhersagen über die mögliche Macht der Rechner – die Ideen etwa von selbstfahrenden Autos und sprechenden Robotern schienen Science-Fiction-Romanen vorbehalten. Doch der stete Austausch von gespeicherten Daten haucht den Maschinen Leben ein: Ihre Macht liegt im Zusammenschluss, ihre Kraft im Austausch von Informationen. Mit diesen Komponenten könnten die künstlichen Gehirne zu einer lernenden Software mutieren, die allmählich eine eigene Intelligenz hervorbringt. Dann lernen die Rechner aus ihren Fehlern, an die sie sich – anders als die meisten Menschen – bei der nächsten Situation noch genau erinnern können. So vermeiden sie weitere Fehlgriffe, und das lässt sie mittels des Prinzips von try and error sowie eines schier endlos erweiterbaren Gedächtnisses immer »schlauer« werden.
Der Traum der Menschheit, auf immer der Technik überlegen zu bleiben, ist zum Albtraum mutiert.
War es das jetzt? Das Postulat des überlegenen menschlichen Gehirns scheint gescheitert. Die Überzeugung, dass Rechner lediglich gespeichertes Wissen abrufen können, aber nicht selbst denken, wird von AlphaGo widerlegt: Er kombiniert sein Wissen zu eigenem Denken. Ohne wirkliche Chance auf einen Sieg musste der menschliche Profispieler dem Rechner gegenüber klein beigeben. Ihm bleibt nur der Verliererposten. Der Traum der Menschheit, auf immer den von ihm erschaffenen technischen Wundern überlegen zu bleiben, ist seit dem Go-Turnier in Tokio zum Albtraum mutiert. Der Chefredakteur des Magazin Wired kommentiert knapp und nicht ohne Ironie den Ausgang des ungleichen Matches mit dem Satz: »Computer sind schlauer.«18
Der Sieg des Rechners über den Menschen markiert dabei vor allem eines deutlich: Wir leben inmitten einer Umbruchphase unserer eigenen Art. Genau wie die Beherrschung des Feuers einst unsere prähistorischen Urahnen gegenüber ihren tierischen Mitgeschöpfen mit großen Schritten voranschreiten ließ, wie die Revolutionen der Aufklärung zu gesellschaftlichen Umwälzungen und zur Befreiung vom Joch der Ungleichheit unter den Menschen beitrugen, wird der anstehende Evolutionsschub der Rechner auch jetzt wieder nicht bloß technische Fortschritte ermöglichen. Er löst vor allem neue Entwicklungen im Sozialen aus. Dieser Fortschritt verändert vornehmlich unsere Lebensweisen und beeinflusst unsere Arbeitswelt – und das in einem Tempo, das die Menschheit bei zurückliegenden Epochenwechseln so nie kannte. Den Takt gibt diesmal nämlich kaum der Mensch selbst vor. Den Rhythmus dieses Wandels bestimmt allem Anschein nach vielmehr die künstliche, vom Menschen geschaffene Intelligenz. In atemberaubender Geschwindigkeit verändern die leistungsstarken Rechner das gemeinschaftliche Miteinander aller Menschen – und lassen womöglich heute noch völlig ungeahnte Konflikte keimen.
Die Menschen haben sich schon längst das Heft aus der Hand nehmen lassen. Sie treffen ihre Entscheidungen nur noch selten selbstständig, meist übernehmen das heute Rechner. In Banken und Personalbüros oder schlicht am heimischen PC entscheiden inzwischen Algorithmen, wo einst der Mensch abwog: Sie bestimmen, wer welchen Kredit zu welchen Konditionen bekommt, wer für welchen Job am geeignetsten erscheint oder welche Produkte man auf den Einkaufszettel schreibt. Sie schätzen nach geheimen Scorings die Bonitäten der Kunden, beurteilen, wie gut sich Kandidaten in ein Team integrieren, oder schlagen uns – ebenfalls nach undurchschaubaren Rechenmethoden – vor, unter welchen Waren wir aussuchen sollen, was uns gefalle. Solche Entscheidungen basieren auf den Informationen, die wir als Spur im Netz hinterlassen, wenn sogenannte Tracking-Software unser Surfverhalten analysiert, um etwa zu entdecken, auf welchen Seiten wir nach Büchern, Parfüm oder Kleidung stöbern. Diesen Wust an Daten sortiert die Maschine dann mittels Formeln. Sie versucht, Muster zu erkennen, und steckt uns Menschen nach den ermittelten Mustern in Schubladen, die sie dann nur jedes Mal wieder aufzieht, um uns genau daraus neue Angebote zu unterbreiten. Das funktioniere im Grunde wie die Wettervorhersage, erklärt ein Hacker: »Diese Analysen und die daraus resultierenden Prognosen werden zwar immer besser, aber sie bleiben auch immer fehleranfällig.«19 Deshalb bleibt der Spezialist aus dem Chaos Computer Club auch skeptisch gegenüber der aktuellen Big-Data-Debatte. »Mit Algorithmen über das Leben von Menschen zu urteilen« findet er problematisch.20
Die Software, die Computern ihre »Schlauheit« verleiht, ist alles andere als fehlerfrei. Experten gehen heute davon aus, dass etwa zwei bis drei Promille aller Kommandocodes in Datenverarbeitungssoftware Bugs, also Programmfehler, enthält. Das könne »zu falschen Schlussfolgerungen des IT-Systems führen und möglicherweise zu fatalen Konsequenzen für Betroffene«.21
Es ist problematisch, mit Algorithmen über das Leben von Menschen zu urteilen.
Die meisten Menschen akzeptieren all das heute jedoch nahezu klaglos. Sie hängen ihre Selbstbestimmung ohne wirkliche Notwendigkeit und teils regelrecht begeistert an den Haken und treten sie damit freiwillig an die künstlichen Rechnergehirne ab. Diese Selbstbeschneidung der Menschen gesellt sich zu einer längst weit fortgeschrittenen Unfreiheit: der beständig zunehmenden Überwachung unserer Leben über das Internet. Sie dringt unbemerkt bei uns ein. Wachgerüttelt werden wir höchstens dann, wenn ein mutiger Insider sich ein Herz nimmt und als Whistleblower Sand ins geölte Getriebe streut. Dann schreien wir kurz einmal auf. Wir empören uns. Vielleicht demonstrieren wir unseren Unwillen mit Protestplakaten oder bei einer Unterschriftensammlung – natürlich auf einschlägigen Portalen im Netz. Das war es dann aber auch schon. Dabei müsste sich heute jeder selbst vor dem Missbrauch von Daten schützen, sagen Experten. Die Hacker des CCC haben da eine eindeutige Meinung: »Nur wer zukünftig selbst über die Verbreitung und Verwendung seiner Daten entscheiden kann, wird auch selbstbestimmt handeln können.«22