Machine Learning - Medien, Infrastrukturen und Technologien der Künstlichen Intelligenz -  - ebook

Machine Learning - Medien, Infrastrukturen und Technologien der Künstlichen Intelligenz ebook

0,0
149,99 zł

Opis

Nicht weniger als von einer Revolution ist gegenwärtig die Rede. Neuere Verfahren der Künstlichen Intelligenz greifen in sämtliche Bereiche des sozialen und kulturellen Lebens ein: Maschinen lernen Bilder und Sprache zu erkennen, beherrschen die autonome Steuerung von Fahrzeugen ebenso wie Finanzinvestments und medizinische Diagnostik. Im digitalen Wandel ist Lernen damit kein Privileg des Menschen mehr. Vielmehr verschieben sich mit maschinellen Lernverfahren die Relationen zwischen Erkenntnismöglichkeiten, technischen Umwelten und humanen Akteuren. Dieser Band vermittelt erstmals für den deutschsprachigen Raum einen Überblick über die medialen, infrastrukturellen und historischen Voraussetzungen des maschinellen Lernens.

Ebooka przeczytasz w aplikacjach Legimi lub dowolnej aplikacji obsługującej format:

EPUB

Liczba stron: 625




CHRISTOPH ENGEMANN, ANDREAS SUDMANN (HG.)

Machine Learning – Medien, Infrastrukturen und Technologien der Künstlichen Intelligenz

Grundlegende Teile dieses Bandes sind im Rahmen von Fellowships der Herausgeber am Center for Advanced Internet Studies (CAIS) erarbeitet worden. Für die Unterstützung unserer Forschungsarbeiten und die wertvollen Diskussionen am CAIS bedanken wir uns sehr herzlich.

Bibliografische Information der Deutschen Nationalbibliothek

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

© 2018 transcript Verlag, Bielefeld

Die Verwertung der Texte und Bilder ist ohne Zustimmung des Verlages urheberrechtswidrig und strafbar. Das gilt auch für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und für die Verarbeitung mit elektronischen Systemen.

Covergestaltung: Kordula Röckenhaus, Bielefeld

Coverabbildung: kentoh / fotolia.com

Korrektorat: Marisa Uphoff, Münster & Evin Ay, Bielefeld

Print-ISBN 978-3-8376-3530-0

PDF-ISBN 978-3-8394-3530-4

EPUB-ISBN 978-3-7328-3530-0

Besuchen Sie uns im Internet: https://www.transcript-verlag.de

Bitte fordern Sie unser Gesamtverzeichnis und andere Broschüren an unter: [email protected]

Inhalt

Einleitung

I.EPISTEMOLOGIEN UND GENEALOGIEN DES MASCHINELLEN LERNENS

»Down-to-earth resolutions«Erinnerungen an die KI als eine »häretische Theorie«

Bernhard J. Dotzler

Szenarien des PostdigitalenDeep Learning als MedienRevolution

Andreas Sudmann

Von Maschinen lernenZur Mechanical Notation von Charles Babbage

Hermann Rotermund

Das Lernen lernen oder die algorithmische Entdeckung von Informationen

Luciana Parisi

II.HISTORISCHE IMAGINATIONEN UND DISKURSFORMATIONEN ZU (AUTONOMEN) LERNMASCHINEN

›Bin doch keine Maschine …‹Zur Kulturgeschichte eines Topos

Stefan Rieger

Maschinelles Lernen als bildungspolitischer Kontrollverlust?Eine spekulative Kontrollgeschichte der Bildungsplanung

Jeremias Herberg

Selbstlernende autonome Systeme?Medientechnologische und medientheoretische Bedingungen am Beispiel von Alphabets Differentiable Neural Computer (DNC)

Thomas Christian Bächle, Christoph Ernst, Jens Schröter und Caja Thimm

III.DATEN UND DATENPRAKTIKEN MASCHINELLEN LERNENS

Daten als SchnittstelleDie Poetik des maschinellen Lernens im Design

Daniel Cardoso Llach

Big-Data-KriegeÜber Tötungslisten, Drohnen und die Politik der Datenbanken

Jutta Weber

Rekursionen über KörperMachine Learning-Trainingsdatensätze als Arbeit am Index

Christoph Engemann

Media Analytics & Gegenwartskultur

Lev Manovich

IV.MATERIALITÄT UND ÄSTHETIK LERNENDER MASCHINEN

Wenn aus Zahlen Töne werden…Überlegungen zu computergenerierter Musik und Komposition

Franziska Kollinger

Ein Meer von DatenApophänie und Muster(-miss-)erkennung

Hito Steyerl

Wenn künstliche Intelligenz laufen lerntVerkörperungsstrategien im Machine Learning

Yvonne Förster

biodragTuring-Test, KI-Kino und Testosteron

Ulrike Bergermann

V.INTERVIEWS

»Deep Learning ist keine Religion«

Andreas Sudmann im Gespräch mit Yoshua Bengio

»Wunderwerke der Parallelisierung«

Andreas Sudmann im Gespräch mit Roland Memisevic

Autor_innenverzeichnis

Einleitung

ZUR EINFÜHRUNGMEDIEN, INFRASTRUKTUREN UND TECHNOLOGIEN DES MASCHINELLEN LERNENS

Andreas Sudmann

In der noch jungen Geschichte der Erforschung Künstlicher Intelligenz(en) fielen Anspruch und Wirklichkeit oft weit auseinander. Gemäß einer viel zitierten Anekdote, die eine Begebenheit aus dem Jahr 1966 schildert, hat sich niemand Geringeres als Marvin Minsky, schon damals ein weithin bekannter Forscher auf dem Gebiet der Künstlichen Intelligenz(en) (KI), für einen seiner begabteren Studenten folgende Aufgabe überlegt: Gerald Jay Sussman sollte im Rahmen eines Sommerprojekts am MIT herausfinden, wie man einen Computer in die Lage versetzen kann, mittels einer Kamera seine Umwelt zu beschreiben (Crevier 1993: 88). Inwieweit diese Anekdote tatsächlich zutreffend wiedergibt, was sich seinerzeit in Cambridge zutrug, sei dahingestellt. Unzweifelhaft drückt sich in ihr jedoch jener Optimismus aus, den die KI-Forschung seit ihren Anfängen bestimmte. Doch bereits Ende der 1960er Jahre ließ die allgemeine Euphorie über die Entwicklung intelligenter Maschinen spürbar nach. Viele Problemstellungen der KI, allen voran eben jene auf dem Gebiet der Computer Vision, waren letztlich deutlich komplizierter als man zunächst annahm. Das Ausbleiben greifbarer Fortschritte war nicht ohne Konsequenzen: Die finanzielle Förderung der KI-Forschung durch das Militär und andere Institutionen ging massiv zurück. Später wird man im Rückblick von einem »KI Winter« sprechen.

Zeitsprung in die Gegenwart des Jahres 2018. Man kann vielleicht geteilter Auffassung sein, inwieweit man derzeit als Pendant zum »KI Winter« von einem »Sommer der KI« sprechen kann. Unzweifelhaft kann man jedoch gegenwärtig beobachten, dass die KI-Forschung wieder Konjunktur hat, ohne dass ein Ende ihrer Hochphase abzusehen wäre (was man vom Sommer eigentlich nie sagen kann, weshalb zumindest aus diesem Grund die Metapher unglücklich gewählt wäre). So vergeht kaum ein Tag, ohne Hinweis auf neue Fortschritte und vermeintliche Innovationen. Von den Sprachassistenten des Smartphones, über selbstfahrende Autos, die Vorhersagen von Börsenkursen oder Verfahren der automatischen Gesichtserkennung, immer stärker und häufiger greifen smarte Algorithmen in die Praktiken und Erscheinungsformen von Kultur und Gesellschaft ein. Und doch ist selbst im Jahr 2018 die Beschreibung visuellen Inputs durch einen Computer in verschiedenen Hinsichten noch ein ungelöstes Problem – einerseits.

Andererseits ist der Fortschritt maschineller Intelligenzen gerade auf dem Gebiet der Computer Vision besonders deutlich sichtbar. Beispielsweise ist es einem deutsch-kanadischen Unternehmen 2017 erstmals gelungen, ein KI-System zu entwickeln, das mittels einer Kamera Handlungen in der empirischen Welt identifizieren und beschreiben kann (Sudmann 2016, 2017b). Und wie so oft in der jüngeren Vergangenheit basiert auch dieser Innovationssprung auf einem ganz bestimmten Ansatz der KI: den maschinellen Lernverfahren Künstlicher Neuronaler Netzwerke (kurz: KNN, seit ungefähr 2006 auch Deep Learning genannt, kurz DL).

Was aber sind maschinelle Lernverfahren? Und was versteht man unter KNN? Um mit der ersten Frage zu beginnen: Primäres Merkmal maschineller Lernverfahren ist, dass sie einen Computer in die Lage versetzen, aus Erfahrungen zu lernen, um bestimmte Aufgaben zu lösen und Vorhersagen zu treffen, ohne für diese Funktion explizit programmiert worden zu sein (vgl. dazu bereits schon Samuel 1959). Oder um im Anschluss an Mitchell (1997) eine eher formale Definition zu bemühen: Maschinelles Lernen ist das Studium von Algorithmen, die in Bezug auf irgendeine Aufgabe t ihre Leistung p auf der Basis einer Erfahrung e verbessern.

Der maschinelle Lernprozesses läuft dabei typischerweise wie folgt ab: Gegeben ist ein Input (x) sowie ein Output (y). Ziel ist es, für irgendeinen Input x (z.B. Bilder bzw. Pixels) den dazu passenden Output y (z.B. den Inhalt eines Bildes) möglichst genau vorherzusagen. Dafür wird das maschinelle Lernsystem im Rahmen einer sogenannten Lernphase auf Grundlage riesiger Mengen von Beispieldaten (anhand gelernter Übereinstimmungen von x, y) so lange trainiert, bis das System auf der Basis der Lernerfahrung aus dem Training in der Lage ist, auch neue, unbekannte Inputdaten zutreffend zu generalisieren.

Der Ablauf, wie er hier knapp dargestellt wurde, entspricht dem Typus des sogenannten überwachten Lernens (supervised machine learning), im Unterschied zum unüberwachten Lernverfahren (unsupervised learning). Bei Letzteren geht es um Lernkonstellationen, bei denen jeweils nur der Input (x) ohne zugehörigen Output (y) gegeben ist. Aber auch unter solchen Bedingungen, wo Inputdaten ohne Label vorliegen, sind maschinelle Lernverfahren fähig, auffällige statistische Strukturen in großen Datenmengen zu erkennen. Zum Beispiel können Computersysteme ermitteln, dass in Videos der Social-Media-Plattform YouTube vor allem immer wieder Katzen als dominantes Muster auftauchen, ohne dabei über ein (semantisches) Konzept von Katzen zu verfügen.

Dass die KI-Industrie gerade in Methoden des unüberwachten Lernens große Hoffnungen setzt, ist kaum überraschend. Selten liegen Daten bereits in einer solchen Form vor, dass Lernalgorithmen umstandslos auf sie anwendbar sind. Im Gegenteil ist es in der Regel ein sehr aufwendiger Prozess, Daten so aufzuarbeiten, dass sie als Material für maschinelle Lernprozesse Verwendung finden können (Sudmann 2017c). Und dieser Prozess muss gegenwärtig noch immer von Menschen manuell organisiert und ausgeführt werden.

Oft genug hat man es jedoch mit einer Situation zu tun, in der ein Teil der Daten gelabelt ist und ein anderer nicht. In dieser Konstellation kommen die sognenannten semi-überwachten Lernverfahren zum Einsatz, zu denen insbesondere der Lernansatz des Reinforcement Learning zählt. Letzterer spielt gegenwärtig vor allem in Verbindung mit Simulationen wie Computerspielen eine große Rolle, u.a. bei führenden KI-Unternehmen wie DeepMind. Wie der Name bereits signalisiert, geht es beim Reinforcement Learning darum, gleichsam ein bestärkendes Feedback-Signal zur Optimierung des maschinellen Lernprozesses zu nutzen. So lernt die Maschine Computerspiele (konkret z.B. alte Atari-Konsolenspiele wie Space Invaders) ohne Vorwissen über Aufbau, Regeln oder sinnvolle Strategien des Spiels besser als menschliche Experten zu beherrschen, einzig durch die Beobachtung des Bildschirmgeschehens und unter Beachtung einer einzigen Vorgabe: Maximiere den Score.

Wie viele unterschiedliche Algorithmen das Gebiet des maschinellen Lernens bereits hervorgebracht hat, ist schwer zu beziffern. Manche Quellen sprechen undifferenziert von Tausenden, andere von Zehntausenden. Derartige Schätzungen sind jedoch allein deshalb fragwürdig, weil sich die einzelnen Lernalgorithmen oftmals sehr ähneln und ihre Abgrenzung entsprechend untereinander schwierig ist. In gewisser Weise sind deshalb auch Versuche mit Vorsicht zu genießen, das Feld maschineller Lernverfahren streng taxonomisch zu ordnen. Zum Beispiel unterscheidet der Computerwissenschaftler Pedro Domingos (2015) in seinem mittlerweile einschlägigen, populärwissenschaftlich orientierten Standardwerk The Master Algorithm fünf »tribes of machine learning«: »symbolists«, »evolutionaries«, »Bayesians«, »analogizers« und schließlich »connectionists«, denen man jeweils einen zentralen Lernalgorithmus zuordnen kann. Dabei verfolgt Domingos die titelgebende These, dass die gegenwärtige und zukünftige Herausforderung maschinellen Lernens darin bestehe, einen Masteralgorithmus zu entwickeln, der sich dadurch als eben solcher auszeichnet, dass er die bestehenden Stärken der existierenden Lernverfahren/-algorithmen effizient zu bündeln weiß. Gleichwohl ließe sich hier einwenden, dass im Feld des maschinellen Lernens längst ein Master-Zugriff existiert: Gemeint sind die bereits erwähnten Ansätze des DL bzw. der KNN, deren zentraler Lernalgorithmus Backpropagation heißt (vgl. LeCun/Bengio/Hinton 2015).

Für Laien mag es überraschend sein, dass die Technologie der maschinellen Lernverfahren im Allgemeinen und KNN im Besonderen keineswegs neu sind. Wie im vorliegenden Band noch ausführlicher thematisiert wird, sind wesentliche Grundlagen und erste Implementierungen dieser Verfahren bereits in den 1940er bzw. 1950er Jahren entwickelt worden (vgl. auch Sudmann 2016).

Es gehört zum Ziel des vorliegenden Bandes, einige Aspekte der Genese und Genealogie maschineller Lernverfahren und in Sonderheit des Ansatzes der KNN aus kultur- und medienwissenschaftlicher Perspektive zu beleuchten. Ein solches wissenschaftshistorisches Projekt stellt noch weitestgehend ein Desiderat dar, auch wenn mittlerweile immer mehr Forscher_innen aus Disziplinen der Geistes- und Kulturwissenschaften auf den gegenwärtigen Boom der KI reagieren und bereits erste theoretische Modelle und historischen Fallstudien vorgestellt haben (u.a. Engemann & Feigelfeld 2016; Finn 2017; Mackenzie 2017; Pasquinelli 2017; Sudmann 2016, 2017a, 2017b, 2017c).

Zudem sind gerade in den letzten Jahren zahlreiche Buchpublikationen als Überblick bzw. Einführung in das Thema KI im Allgemeinen und der ML/DL-Verfahren im Besonderen publiziert worden. Viele dieser Veröffentlichungen konzentrieren sich jedoch entweder darauf, die gegenwärtigen Anwendungsfelder und technologischen Verfahren vorzustellen bzw. zu erklären (z.B. Russell/Norvig 2013, Rojas 2013, Shalev-Shwartz/Ben-David 2014, Goodfellow/Bengio/Courville 2016) und/oder spekulieren, je nach Fokus, über die sozialen, ethischen, ökonomischen Implikationen und Effekte sowohl gegenwärtiger als auch zukünftig denkbarer KI-Technologien (u.a. Barrat 2013, Kurzweil 2013, Bostrom 2014).

In Bezug auf letztere Gruppe von Publikationen dominiert dabei immer wieder ein Szenario: Die Heraufkunft einer maschinellen Intelligenz, die jenseits spezifischer KI-Anwendungen (z.B. Spiele) der menschlichen ebenbürtig, wenn nicht gar überlegen ist (vgl. Vinge 1993). Prognosen dazu sind ebenso zahlreich wie kontrovers (vgl. Bostrom 2014). Vor allem aber haben sie eine lange Tradition. Bereits Alan Turing malte in einem Vortrag ein von ihm selbst als »häretisch« bezeichnetes Szenario aus, in dem irgendwann »Maschinen die Macht übernehmen« (1996 [1951]: 15). Darüber, ob ein solches Szenario mittlerweile wahrscheinlicher geworden ist, kann man unterschiedlicher Auffassung sein. Als häretisch wird man es indes kaum mehr bezeichnen können (vgl. dazu u.a. den Beitrag von Bernhard Dotzler in diesem Band). Ohnehin herrscht selbst unter optimistischen ML/DL-Experten insoweit darüber Konsens, dass in allen Anwendungsgebieten des ML/DL noch viel Arbeit zu leisten ist, bis gerade diejenigen komplexen Leistungen zu bewältigen sind, die Menschen im Unterschied zu KI-Systemen keine Mühe bereiten (vgl. dazu u.a. Bengio 2009).

Gleichzeitig rufen die jüngeren KI-Fortschritte bekannte Ängste hervor, was die Einschätzung ihrer sozialen, kulturellen und ökonomischen Folgen betrifft. Unter Bezug auf Bostroms Thesen in Superintelligence. Paths, Dangers, Strategies (2014),ließ niemand Geringeres als Elon Musk im zeitlichen Umfeld der Buchpublikation über Twitter verlauten: »We need to be super careful with AI. Potentially more dangerous than nukes« (vgl. auch Barrat 2013, zu Risiken und ethischen Implikationen jüngster KI-Entwicklungen, s. Müller 2016). Potenzielle negative Auswirkungen KI-gestützter Automatisierung in Arbeitsfeldern, die bis dato klassische Hoheitsgebiete menschlicher Expert_innen waren, thematisieren u.a. Richard und David Susskind (2015). Neben Euphorie und Technikgläubigkeit auf der einen und mitunter von apokalyptischen Szenarien geprägten Ängsten auf der anderen Seite ist vor allem eine dritte Grundhaltung gegenüber den Leistungen und Versprechen der KI verbreitet: ein fundamentaler Skeptizismus sowie ein Beharren auf der anthropologischen Differenz zur Maschinenintelligenz des Computers. Schon die Countess of Lovelace, die ein komplexes Programm für Babbages Analytic Engine geschrieben hat, notierte 1843 sinngemäß, dass Maschinen keine selbständigen analytischen Fähigkeiten hätten, sondern nur diejenigen des Menschen realisieren könnten (vgl. Weizenbaum 1976, Krämer 2015, Sudmann 2016). Wie Bernhard Dotzler bereits Ende der 1980er Jahre notierte, sind sämtliche solcher Hochrechnungen der KI »zweifellos allesamt schon bei Turing zu haben« (Dotzler 1989: 128).

Auch aus diesem Grund möchte der vorliegende Band sich nicht darauf beschränken, den Fokus allein auf die Chancen, Risiken und Grenzen von KI-/ML-/DL-Technologien zu richten, auch wenn deren sorgfältige Erörterung ein Projekt darstellt, das weiterhin inter- bzw. transdisziplinär verfolgt werden sollte. So ist das Nachdenken über angemessene theoretische Zugriffe und Konzepte einer Medienkritik der KI zweifellos eine zentrale Aufgabe der Medienwissenschaft. Erste Ansätze dazu liegen bereits vor, allerdings beziehen sich diese eher undifferenziert auf Phänomene einer vernetzten algorithmischen Kultur, ohne die spezifische Bedeutung von Lernalgorithmen angemessen zu würdigen (so z.B. Finn 2017).

Vor dem aktuellen KI-Boom haben die Medienwissenschaften auf die jüngeren Entwicklungen im Bereich der KI/des ML/DL, seit ca. Mitte der 1980er Jahre, bis dato nur in Ansätzen reagiert (u.a. Bolz 1994; Winkler 1997; Weber 2003, 2011; Hayles 2012, Vehlken 2012), und das trotz ihres fachhistorisch weit zurückreichenden Interesses an Maschinen, technischen Objekten oder Akteur-Netzwerken (u.a. Kittler 1986, Becker/Cuntz/Kusser 2008; Hörl 2011, Huhtamo/Parikka 2011, Schmidgen 2001, 2014), an der Kybernetik (u.a. Pias 2003, 2004; Rieger 2003; Bergermann 2015) sowie überhaupt an der theoretisch-historischen Reflexion zur Mathematik, des Computers und der digitalen Kultur (u.a. Turkle 1991, Rotman 2000, Manovich 2001, Siegert 2003, Böhnke/Schröter 2004, Warnke/Coy/Tholen 2005, Dotzler 2006, Nohr 2008, Lovink 2011, Pias 2011, Ernst 2013, Peters 2015, Engemann/Sprenger 2015).

Ebenso stellten vor ca. 2015 in zahlreichen anderen Fächern der Geistes-, Sozial- und Kulturwissenschaften sowohl Betrachtungen zu maschinellen Lernverfahren insgesamt als auch zu KNN ein Desiderat dar, mit einigen wenigen Ausnahmen: Beispielsweise haben sich zahlreiche Arbeiten der Philosophie, vor allem im Bereich der Philosophie des Geistes, nicht nur umfangreich mit Fragen der KI (vgl. u.a. Hofstadter/Dennett 1981), sondern insbesondere ab Mitte der 1980er Jahre auch verstärkt mit dem Konnektionismus und KNN beschäftigt (vgl. u.a. Ramsey/Rumelhart/Stich 1991, Horgan/Tienson 1996, vgl. zur philosophischen Diskussion mit interdisziplinärer Ausrichtung in Deutschland u.a. Krämer 1994, Pauen/Roth 2001). Ferner sind KNN Bezugspunkt pädagogischer Lerntheorien, die an Ansätze der Neurobiologie und Neuropsychologie anschließen, so z.B. die operative Lerntheorie von Grzesik (2002). Auch in der Computerlinguistik sind DL-/ML-Verfahren seit längerer Zeit ein wichtiges Thema. Dort wurden auch die jüngeren Entwicklungen des DL insbesondere im Bereich des Natural Language Processing frühzeitig reflektiert (vgl. u.a. Manning 2015). Eine nennenswerte Wahrnehmung von KNN hat schließlich im interdisziplinären Feld der Kognitionswissenschaft stattgefunden, das sich mit (potenziell) bewussten Denk- und Verständnisprozessen beschäftigt (vgl. u.a. Friedenberg/Silverman 2006). Dennoch ist auch dort das Paradigma der KNN gegenüber symbolverarbeitenden Ansätzen der KI tendenziell vernachlässigt worden.

Innerhalb des Faches Medienwissenschaft sind bis dato in erster Linie die historischen Anfänge der KI als Beitrag zur Entstehung moderner Computer und im Kontext der Kybernetik genealogisch rekonstruiert worden (vgl. Pias 2004) bzw. wurde das Denken von Maschinenintelligenz etwa mit Blick auf Turing und Babbage archäologisch aufgearbeitet (u.a. Kittler/Dotzler 1987, Kittler 1989, Dotzler, 1989, Dotzler 2006). So hat u.a. Friedrich Kittler anhand von Alan Turing und dessen Enigma-Entschlüsselung Kriegsgeschichte als Mediengeschichte profiliert und die Rolle von KI-Technologien im Zweiten Weltkrieg beleuchtet ([1989] 2013). In seinem Beitrag stellt Kittler vor allem die Kontinuität der KI heraus. Moderne Computer, so Kittler, basieren im Kern auf der KI der Universalen Diskreten Maschine, wie Turing sie bereits 1936/1937 beschrieben hat. »Künstliche Intelligenzen von heute laufen schneller, paralleler, nur nicht prinzipiell anders. Mit der Universalen Diskreten Maschine ist das Mediensystem geschlossen. Speicher- und Übertragungsmedien gehen beide in einer Prinzipschaltung auf, die alle anderen Informationsmaschinen simulieren kann, einfach weil sie in jeder einzelnen Programmschleife speichert, überträgt und berechnet.« (Kittler 1989] 2013: 243-44). Kittlers Text stellt einen grundlegenden Beitrag zur medienwissenschaftlichen Bearbeitung der KI dar. Dennoch müssen seine Ausführungen zur prinzipiellen Kontinuität der KI mit Blick auf das Paradigma der KNN mindestens relativiert, wenn nicht korrigiert werden (vgl. dazu ausführlich mein Beitrag in diesem Band).

Eine weitere zentrale Referenz für die medienwissenschaftliche KI-Forschung hat Bernhard J. Dotzler mit dem ersten Band seiner bis dato dreiteiligen Werkreihe Diskurs und Medium (2006) vorgelegt und darin die kybernetischen Grundlagen der gegenwärtigen Computerkultur und der KI u.a. anhand von Turing, Babbage sowie Hollerith medienarchäologisch rekonstruiert. Dotzlers Einsatz wird dabei durch den Anspruch markiert, »die technischen Medien jenseits des Diskurses als (verkörpertes) Wissen zu analysieren« und die Materialität des Diskurses mit der Materialität technischer Medien zu konfrontieren (ebd. 8). Auch wenn Dotzler in dieser Publikation noch keine medienarchäologische Untersuchung von DL-/ML-Verfahren vornimmt, ist sein Vorschlag einer »historischen Techno-Logie« für die Untersuchung moderner KI-Technologien allein insofern relevant, als dieser exemplarisch aufzeigt, wie das Zusammenspiel von Diskursen und technischen Medien auch in Bezug auf die maschinellen Lernverfahren des DL erforscht werden kann.

Jenseits von KI-/ML-Verfahren stellt die Auseinandersetzung mit Algorithmen generell einen Weg der Forschung dar, der in der Medienwissenschaft bislang wenig erschlossen wurde. Dennoch sind schon seit Ende der 1990er Jahre eine ganze Reihe Studien vorgelegt worden, die für eine nähere medienwissenschaftliche Beschäftigung mit der algorithmischen Kultur im Allgemeinen wichtige Anschlüsse liefern. Man denke exemplarisch an Alexander Galloways Studie Protocol (2004) und seine theoriehistorischen Arbeiten zu Netzwerken (mit Thacker 2007) sowie an zahlreiche weiteren Arbeiten, die im Bereich der sogenannten Critical Code Studies entstanden sind (u.a. Hayles 1999, Kirschenbaum 2008, Wadrip-Fruin 2009, Reichert 2014).

Ein wesentlicher Antrieb und Effekt der KI-Forschung, seit ihren Anfängen in der Kybernetik (vgl. Pias 2003, 2004), war die zunehmende Automatisierung von Aufgaben. Im Rahmen der bereits skizzierten dystopischen Szenarien einer zukünftigen KI, und mit Blick auf die vermeintliche Selbstständigkeit gegenwärtiger ML-/DL-Verfahren, wird über die Frage der Automatisierung hinaus ein Aspekt aufgerufen, mit dem sich die Medienwissenschaft, insbesondere an der Universität Paderborn, in den letzten Jahren intensiv beschäftigt hat: die Frage von Automatismen (u.a. Bublitz et al. 2011). Mit dem Begriff der Automatismen sind gemäß des Basisverständnisses des gleichnamigen Paderborner Graduiertenkollegs im weitesten Sinne sich wiederholende Abläufe und Kulturtechniken gemeint, die einer bewussten Kontrolle bzw. Steuerung weitgehend entzogen sind, sei es in Bezug auf kollektive oder individuelle menschliche Handlungen, sei es als informationstechnischer Prozess oder überhaupt als prozeduraler Effekt der Dynamik von Kultur und Medien (s. dazu, als Publikation des Kollegs u.a. Eke et al. 2014). Ein Grundgedanke des Graduiertenkollegs lautet, dass eine wesentliche Funktion oder Leistung von Automatismen als Kulturtechnik in der Reduktion von Komplexität besteht (ebd.).

Hieran anknüpfend könnte z.B. erstens danach gefragt werden, inwieweit auch die DL-Verfahren nicht bloß als kontrollierbare automatische Technik zu begreifen sind, sondern sie auch mit Automatismen operieren bzw. von ihnen abhängig sind. Zweitens ist der Aspekt der Komplexitätsreduktion im Fall von ML auch losgelöst von der Perspektive auf Automatismen zentral, angefangen bei dem Aspekt, dass KNN ein sehr simplifiziertes Simulationsmodell des biologischen Gehirns darstellen.

Jutta Weber (2011) hat betont, dass ein zentrales Merkmal neuer Technowissenschaften (z.B. der Robotik oder Neuroinformatik) darin bestünde, »dass sie nicht primär auf die Kontrolle der Naturprozesse durch die Erschaffung zweiter (oder dritter) Natur zielen, sondern dass sie auf Konvertierung, Perfektionierung und letztlich ›Optimierung‹ der Natur setzen« (94). Letztere These müsste auch noch einmal in Bezug auf die gegenwärtige DL-/ML-Forschung genauer geprüft werden. Einerseits verhält es sich in dieser Hinsicht so, dass sich künstlichen neuronale Netzwerke nur vage an ihrem natürlichen Modell orientieren, gleichzeitig existiert allerdings die Hoffnung, dass Ansätze wie DL/KNN eben auch neue Erkenntnisse über die Funktionsweise tierischer und/oder menschlicher Gehirne ermöglichen. In jedem Fall sind DL-/KNN-Verfahren hinsichtlich ihrer basalen Operationen als Prozesse der Optimierung und Perfektionierung beschreibbar (vgl. dazu auch Schröter et al. in diesem Band).

Ende der 1990er Jahre hat Sybille Krämer die These vertreten, dass der Computer immer weniger als Instrument der »Intelligenzverstärkung« und zunehmend als Medium der Kommunikation reflektiert wird (Krämer 1998). Angesichts der aktuellen Konjunktur der KI wird sich vermutlich auch die Art und Weise der wissenschaftlichen Betrachtung erneut verschieben. Bereits dem vorliegenden Band ist ablesbar, dass der Computer neuerlich verstärkt als Medium der Ermöglichung und Erweiterung von Intelligenz reflektiert wird. Zugleich bleibt die Frage der Kommunikation im Kontext der Smartness unserer alltäglichen Computersysteme (Tablet, Mac, Smartphone oder PC) offenkundig äußerst relevant. Man denke hier an sogenannte persönliche Assistenten wie Siri und Alexa oder eben Chatbots wie Microsoft Tay, anhand derer Experten wie Laien aus naheliegenden Gründen leidenschaftlich über die Grenzen und Möglichkeiten gegenwärtiger oder zukünftiger KI diskutieren. Immerhin erinnern beide Anwendungsformen an den klassischen Turing-Test, mit dem wichtigen Unterschied, dass hier in beiden Fällen die maschinelle Existenz den Usern bekannt ist.

Im Zuge des gegenwärtigen KI-Booms geht es jedoch nicht allein um den Computer als Medium, sondern ganz grundsätzlich um die Beziehungen von Menschen und Technologien. Allemal bemerkenswert scheint, dass die gegenwärtige Rede über KI-basierte Prozesse der technischen Automatisierung ausgerechnet in eine Zeit fällt, in der die Medien- und Kulturwissenschaft sowohl die Autonomie der Technik als auch die des Menschen fundamental infrage gestellt hat und stattdessen über die Bedeutung von Netzwerken, Interfaces oder medialen Umgebungen nachdenkt (vgl. dazu auch den Beitrag von Christoph Ernst et al. in diesem Band). Aspekte der Konnektivität und der Vernetzung drängen sich zur Reflexion offenkundig besonders dort auf, wo sie bereits im Namen der KI-Verfahren enthalten sind.

Aber auch die konkreten Praktiken im Zusammenhang mit Programmbibliotheken wie TensorFlow oder Crowd-Worker-Plattformen wie Amazon Mechanical Turk führen nachdrücklich vor Augen, dass die Infrastrukturen gegenwärtiger KI-Technologien eben keine in sich geschlossenen technischen Systeme sind, sondern offene Netzwerke, die global unterschiedlich verteilt sind und so ihre Wirksamkeit entfalten.

Gleichzeitig werden die Möglichkeitsbedingungen maschineller Lerntechnologien eben auch nicht unwesentlich durch die Bedingungen eines neoliberalen Kapitalismus formiert. In diesem Kontext scheinen insbesondere KNN einerseits geeignet, um als Macht- bzw. Überwachungstechnologien einer traditionellen Disziplinargesellschaften zu fungieren, andererseits befördern sie auch jene Praktiken und Erscheinungsformen, die Deleuze als Kennzeichen der modernen Kontrollgesellschaften hervorgehoben hat, indem sie bloß dem Schein nach neue Spielräume einer flexiblen Selbstkontrolle und Selbsteinpassung in das gesellschaftliche Leben schaffen. Man denke nur an die Praktiken der Selbstverdatung, wie sie von Milliarden bzw. Millionen von Nutzer_innen tagtäglich auf den Plattformen sozialer Medien wie Facebook stattfinden.

Irgendwann wird man vielleicht darüber staunen, dass Konzerne wie Google, Amazon oder Facebook bereits Big-Data-Riesen waren, bevor sie von avancierten maschinellen Lernalgorithmen wie KNN Gebrauch machten, gerade wenn man sich vergegenwärtigt, dass die die Geschichte des Machine Learning eben weitaus älter ist als die großen Repräsentanten des Internetzeitalters.

Historische Abhandlungen zum Machine Learning gibt es nach wie vor kaum, erst recht nicht aus einer medienhistorischen Perspektive. Und tatsächlich ist ein solches historiographisches Projekt eine nicht unbeträchtliche Herausforderung, gerade wenn man Verfahren des ML im Kontext der übergeordneten Geschichte der KI stellt.

Mediengenese und -genealogien des maschinellen Lernens und der Künstlichen Neuronalen Netzwerke

Immerhin beginnt, wie u.a. Pamela McCorduck (2004 [1979]) gezeigt hat, die Vorgeschichte der KI und damit auch der maschinellen Lernverfahren bereits in der Antike. Zu denken wäre an die Mythen artifizieller Wesen, seien es die mechanischen goldenen Dienerinnen von Hephaistos, dem Gott des Feuers und des Handwerks in der griechischen Mythologie, oder Pygmalions Galatea. Seitdem hat sich die Vorstellung artifizieller Wesen mal mehr, mal weniger sichtbar in die kulturellen Erzählungen und Bilder der westlichen Welt eingeschrieben.

Indes sind all diese frühen Vorstellungen weit entfernt von dem, was man im 20. Jahrhundert als KI diskutieren wird: Spätestens ab Anfang/Mitte des 18. Jahrhunderts transformiert sich das Maschinendenken zunehmend von einem Projekt der Fiction in ein Projekt der Science. So begreift etwa der Mediziner, Philosoph und Naturforscher La Mettrie in seiner Schrift mit dem programmatischen Titel L’Homme Machine (2001 [1747]) den Menschen erstmals umfassend als Maschine und fordert damit das Weltbild seiner Zeit heraus. Aber auch die junge Ingenieurskunst des 18. Jahrhunderts, man denke exemplarisch an die Arbeiten von Jacque de Vaucanson, ist von automatischen Maschinen fasziniert.

Mit der Heraufkunft des modernen Digitalcomputers änderte sich das Konzept der Maschine allerdings nochmals grundlegend. Statt dass Maschinen lediglich eine oder wenige Aufgaben ausüben können, funktioniert der Computer als programmierbare »Universalmaschine« für variable Anforderungen (s. Turing 1936/1937). Entsprechend stehen 200 Jahre nach La Mettrie theoretische Überlegungen zur Mensch-Maschine-Relation unter diesen neuen Vorzeichen, was sich insbesondere in jenem Denken äußert, das ab 1946 im Rahmen der sogenannten Macy-Konferenzen zum Gegenstand eines Dialogs unterschiedlicher Disziplinen und bald unter dem Namen Kybernetik firmieren wird.

Die Kybernetik markiert jedoch nicht bloß einen epistemischen Bruch, indem sie die anthropologische Differenz von Mensch und Maschine infrage stellt. Vielmehr steht sie für den Beginn eines Forschungsprogramms, das zehn Jahre später im Umfeld der berühmten Dartmouth Conference, geprägt durch J. McCarthy, »Artificial Intelligence« heißen wird und zwar in Bezug auf beide der zentralen KI-Paradigmen: Symbolische KI auf der einen und Simulation von KNNs auf der anderen Seite (s. McCarthy/Rochester/Shannon 2006 [1955]); oder in den Worten von Hubert L. und Stuart E. Dreyfus (1988): »making a mind« versus »modelling the brain«.

Im Rahmen der vorliegenden Publikation wird es schwerpunktmäßig um eine Auseinandersetzung mit dem letztgenannten Paradigma gehen. Dabei soll versucht werden, die Engführungen und Tautologien der bisherigen Debatte zur Mensch-Maschine-Differenz zu vermeiden (zu den Gründen s.u.a. Dotzler 1989: 130). Entsprechend geht es im vorliegenden Band in erster Linie darum, die existierenden Praktiken des maschinellen Lernens gleichsam als für sich stehend zu begreifen sowie ihre medialen Voraussetzungen und Umgebungen theoretisch-historisch angemessen zu beschreiben. Die technologischen Differenz zwischen ML-Verfahren zu anderen Ansätzen der KI, die etwa klassisch auf Programmierung (Symbolverarbeitung) setzen (s. dazu Amir 2014), stehen dabei nicht im Zentrum der Beschäftigung, sind jedoch grundsätzlich von Bedeutung, um die Spezifik von ML-/KNN-Verfahren angemessen darstellen zu können.

Die vorliegende Publikation ist nicht zuletzt auch daran interessiert, in ersten Ansätzen die verschiedenen historischen Epistemologien des Lernens zu erschließen, die durch das DL-/KNN-Paradigma und seine Forschungen aufgerufen werden. So stellt die Auseinandersetzung mit Lernmodellen, -strategien, -bedingungen und -umgebungen unterschiedlicher Disziplinen (Pädagogik, Didaktik, Psychologie etc.) eine wichtige Aufgabe dar, um den Zusammenhang unterschiedlicher Wissensformen als mediale Voraussetzung von ML-/DL-Verfahren angemessen zu erschließen. Im Zentrum steht dabei, welches (historische) Wissen über das Lernen außerhalb der Informatik Ansätze der DL-Forschung informiert (hat) und welches nicht. Vor allem drei Ansätze oder Paradigmen von Lerntheorien haben in den Sozial-, Kultur- und Geisteswissenschaften die wissenschaftliche Diskussion grundlegend bestimmt und sind deshalb auch für die Rezeption durch die ML-/DL-Forschung bedeutsam: der Behaviorismus, der Kognitivismus und der Konstruktivismus. Zum Beispiel verweisen die ML-/DL-Verfahren des sogenannten Reinforcement Learnings auf psychologische Experimente des Behaviourismus, wie sie seit Pavlov und Thorndike durchgeführt wurden. In der aktuellen Fachliteratur zu ML-/DL-Verfahren, d.h. auf dem Gebiet der Informatik, sind allerdings explizite Bezüge zur Lernforschung anderer Disziplinen (Psychologie, Pädagogik etc.) grundsätzlich eher selten (vgl. Schmidhuber 2015). Domingos (2015) nennt in seinem Buch zumindest The Scientist in the Crib von Gopnik, Meltzhoff und Kuhl (1999) als Zusammenfassung psychologischer Erkenntnisse der Kognitionswissenschaft, wie Kinder und Babys lernen. Umfangreicher sind Verweise auf psychologische Modelle in der ›historischen‹ Fachliteratur zu KNN-Verfahren (vgl. u.a. McClelland/Rumelhart 1986).

Die Fokussierung auf Lernkonzepte jenseits der Informatik ist aber auch deshalb relevant, weil sich zahlreiche pädagogische, psychologische oder didaktische Studien – wie die KNN-Forschung selbst – immer wieder an den Erkenntnissen der Gehirnforschung ausrichten. So ist z.B. die sogenannte Neurodidaktik darum bemüht, Vorschläge für ein »gehirngerechtes Lehren und Lernen« zu unterbreiten (Herrmann 2006; vgl. u.a. auch Grzesik 2002). Für die historische Epistemologie maschinellen Lernens sind derartige Formen zirkulärer Referenz und ihre Effekte kritisch zu befragen, nicht zuletzt mit Blick auf die Evaluation von Lernregimen (vgl. Tuschling 2009). Zudem nehmen zahlreiche Lerntheorien der Pädagogik, Didaktik und Psychologie ihrerseits regelmäßig auf Computer oder Maschinen Bezug: entweder als Entitäten, die den Menschen beim Lernen unterstützend umgeben (z.B. Krause 2007, Terhart 2009), zur Kennzeichnung regelbasierter Lernstrategien (Funke/Zumbach 2006) oder zur Beschreibung menschlicher Prozesse der Informationsverarbeitung und -speicherung (u.a. Craik/Lockhart 1972). Zu erwarten ist, dass die Lerntheorien der Zukunft wesentlich stärker auf Ansätze des Machine Learning und der KNN zurückgreifen werden. Jedenfalls scheint es kaum abwegig, dass in nicht allzu ferner Zukunft im Klassenzimmer oder im Seminarraum immer mehr mit Hilfe maschineller Lernverfahren gelernt und geforscht wird.

Zur (historischen) Epistemologie menschlichen und maschinellen Lernens gehört in jedem Fall nicht bloß die Frage nach dem Lernen selbst, sondern ebenso die nach dem Lernen des Lernens und seinen Bedingungen. Letzteres betrifft insbesondere das Verhältnis des Zusammenspiels von menschlichen und nicht-menschlichen Akteuren, die das Lernen und seine Vermittlung ermöglichen (z.B. Metzig/Schuster 2006), die Rolle von Lernstrategien sowie überhaupt die Rolle von Lernumgebungen, d.h. die (mediale) Situierung des Lernens.

In dieser Hinsicht lohnt es sich hervorzuheben, dass erst seit gut drei Jahren damit begonnen wurde, Roboter nennenswert mit der Technologie der KNN zu verschalten. Mit dem Einsatz mobiler Roboter werden die Möglichkeiten von KI-Systemen, ihre Umwelt wahrzunehmen, jedenfalls drastisch erweitert. Inzwischen hat z.B. die Firma Boston Dynamics eine Generation mobiler Roboter präsentiert, die, über visuelle Sensoren vermittelt, in der Lage sind, selbständig Türen zu öffnen. Das ist jedoch erst der Anfang. Die eigentliche Herausforderung besteht darin, dass Roboter bestimmte Lernherausforderungen nicht nur über ihr visuelles System, sondern durch ihre eigenen Handlungen und Bewegungen erlernen.

Vor dem Hintergrund, dass derzeit vor allem KNN unter den Technologien des maschinellen Lernens herausragen, überrascht es nicht, dass auch die Beiträge des vorliegenden Bandes in erster Linie auf diesen Ansatz Bezug nehmen. Und folglich scheint es auch im Rahmen dieser Einleitung sinnvoll zu sein, zumindest grob einige Aspekte zur Geschichte der KNN zu entfalten. Erfreulicherweise existieren längst einige historische Studien, an die man in dieser Hinsicht anschließen kann.

Zum Beispiel könnte man hier auf die lange Geschichte der Hirnforschung verweisen, wie sie nicht zuletzt wissenschaftshistorisch vor allem mit Blick auf Entwicklungen seit dem 18. Jahrhundert untersucht worden ist (vgl. u.a. Borck 2013, Schmidgen 2014). Erste Konzepte zur konnektionistischen Funktionsweise des Gehirns wurden bereits im 19. Jahrhundert von Alexander Bain [1873] und David Ferrier [1876] entwickelt. Ferner kann man die Geschichte der KNN zur Emergenz statistischer Verfahren und des Wahrscheinlichkeitsdenkens in Beziehung setzen (vgl. Hacking 1975, Porter 1986).

Jenseits dieser historischen Pfade spricht einiges dafür, Alan Turing nicht nur als Begründer der KI-Forschung im Allgemeinen zu begreifen, sondern – neben McCulloch/Pitts – als Vordenker des ML im Sinne der Simulation von KNN. Mit seinem Beitrag »Computing Machinery and Intelligence« für die Zeitschrift Mind hat Turing 1950 einen der bekanntesten Grundlagentexte zur Frage der Entwicklung denkender Maschinen vorgelegt. In dem spekulativen Beitrag vermeidet Turing das definitorische Problem, was in Bezug auf die Beziehung von Mensch und Maschine Denken heißt, zugunsten eines Gedankenexperiments, das später als Turing-Test berühmt wurde: Sollte eine Maschine in der Lage sein, über einen gewissen Zeitraum und vermittelt z.B. über einen Teleprinter eine Konversation zu führen, die man nicht von einem Gespräch mit einem Menschen unterscheiden kann, könnte man, so Turing, vernünftigerweise behaupten, dass die Maschine in gewisser Weise zur Denkleistung befähigt ist (zur Kritik am Turing-Test vgl. u.a. Searle 1980). Für die Ausführungen dieses Projekts sind Turings Überlegungen vor allem deshalb wichtig, weil er sich auch der Frage der Lernfähigkeit von Maschinen zuwendet und vorschlägt, dass ML sich sinnvollerweise an dem Modell des kindlichen Lernens orientieren solle, eine Perspektive, die für nachfolgende Paradigmen des Machine Learning von entscheidender Relevanz sein wird. Doch schon vor diesem berühmten Text hat Turing in einem (zunächst) unveröffentlichten Bericht aus dem Jahr 1948 mit dem Titel »Intelligent Machinery« bereits ein Konzept erarbeitet, Computer herzustellen, die aus trainierbaren Netzwerken Neuronen-artiger Elemente bestehen (Turing 1969 [1948], Teuscher 2001). Da Turings Berichts erstmals 1969 publiziert wurde, hat er den frühen Konnektionismus kaum beeinflusst, was jedoch nichts an der historischen Bedeutung seiner Überlegungen ändert.

Für das KI-Paradigma der Simulation von KNN sind bis Ende der 1980er Jahre stattdessen folgende Publikationen bzw. technische Entwicklungen wirkungsmächtig: Zuvorderst ist hier die bereits erwähnte Arbeit von McCulloch/Pitts (1943) zu erwähnen, die jedoch noch kein Konzept zu einem Lernalgorithmus enthielt. Die Basis eines solchen Lernalgorithmus lieferten vor allem die Forschungen des kanadischenPsychologen Donald O. Hebb, der 1949 in seinem Buch The Organization of Behavior die neurologischen Fundamente des Lernens darlegte und beschrieb, wie Neuronen sich in Abhängigkeit von Erfahrung physiologisch transformieren (2002 [1949]: 62). Seine Idee, dass eine Verbindung zwischen Neuronen gestärkt wird, wenn irgendein In-Output-Paar ebenfalls ›feuert‹, stellt eine grundlegende Einsicht dar, die seit den Anfängen der KNN-Simulationen bis heute von Bedeutung ist. So liefert die Hebbsche Lernregel eine Methode, wie man die Gewichtung zwischen künstlichen Neuronen anpassen kann.

Die Arbeiten von McCulloch/Pitts und Hebb führten bald zur Entwicklung erster KNN, die über Lernalgorithmen verfügten. Bereits 1951 baute Marvin Minsky mit seinem Kollegen Dean Edmonds den vermutlich ersten lernfähigen Neuronencomputer, der den Namen SNARC (Stochastic Neural-Analog Reinforcment Computer) trug, allerdings ausschließlich dafür konzipiert war, dass eine simulierte Ratte den Weg aus einem Labyrinth findet. Ein deutlich komplexeres KNN mit Lernfähigkeit wurde Ende der 1950er Jahre u.a. von Frank Rosenblatt am MIT in Form des sogenannten Perzeptron-Modells realisiert und unter dem Namen »Mark 1 Perceptron« auch hardware-mäßig implementiert. Dieser Neuronencomputer konnte bereits für erste Aufgaben der Muster- bzw. Bilderkennung eingesetzt werden.

Im Gegensatz zu heutigen DL-Verfahren war bei Rosenblatts Modell jedoch jeweils nur die Input/Output-Schicht des Netzwerkes trainierbar. Diese Beschränkung in der Schichtenarchitektur war durchaus gravierend. 1969 nahmen Minsky/Papert eine mathematische Untersuchung des Perzeptrons vor und legten dar, dass zentrale Aufgaben der Wissensrepräsentation und Klassifizierung mit Hilfe von Rosenblatts Modell (vermeintlich) nicht gelöst werden konnten (z.B. die sogenannte XOR-Funktion). Konsequenz dieser Studie war, dass über eine längere Periode für Arbeiten im Bereich der KNN keine Gelder mehr bewilligt wurden und zahlreiche Wissenschaftler sich von diesem KI-Paradigma abwandten. Dennoch kam die Forschung zur Simulation von KNNs während der 1970er Jahre nicht vollständig zum Erliegen (vgl. dazu Schmidhuber 2015: 90). Ein wesentlicher Fortschritt in der Entwicklung der Lernfähigkeit von KNN gelang schließlich in den 1980er Jahren mit der Etablierung des Backpropagation-Verfahrens, das im Unterschied zum Perzeptron-Modell Rosenblatts das Training mehrschichtiger, wenn auch vorläufig nur flacher Netzwerke ermöglicht. Verschiedene historische Pfade haben bei der Entwicklung der Backpropagation eine Rolle gespielt (vgl. oben). Grundlagen des Verfahrens wurden u.a. bereits in der sogenannten control theory von Kelley sowie von Bryson (1961) entwickelt. Dreyfus (1973) hatte in der Folge die Backpropagation eingesetzt, um Kostenfunktionen durch die Adaption von Kontrollparametern (Gewichten) zu minimieren, während Werbos bereits 1974 die Möglichkeit diskutiert, dieses Prinzip auf KNN zu übertragen. 1982 wendet Werbos dann Linnainmaas (1970) Methode der sogenannten automatischen Differenzierung auf KNN an. 1986 konnten wiederum Rumelhart/Hinton/Williams zeigen, dass die besagte Methode auch geeignet ist, um mehrschichtige KNN so zu trainieren, dass sie selbst derart komplexe Lernaufgaben bewältigen können, wie Minsky/Papert sie noch Ende der 1960er Jahre für unmöglich hielten (vgl. Schmidhuber 2015). Die Forschung im Bereich KNN hat sich seit Ende der 1980er in den verschiedenen Anwendungsgebieten (NLP, Bilderkennung etc.) stark ausdifferenziert. Nach ersten Erfolgen, die dem Backprop-Lernalgorithmus zu verdanken waren, kam die Weiterentwicklung der KNNs während der 1990er Jahre bis in die 2000er Jahre vorläufig wieder ins Stocken. Vor 2006 scheiterten Versuche, komplexere bzw. tiefere Netzarchitekturen (mit mehr als zwei Schichten) erfolgreich zu trainieren. ML mit der Backpropagation war jedoch noch immer zu langsam. Das änderte sich erst mit der Arbeit von u.a. Hinton zu den sogenannten Deep Belief Networks (vgl. u.a. Hinton/Osindero/Teh 2006), auch wenn dort die Backpropagation nur zum Teil eingesetzt wurde.

Der entscheidende Durchbruch der KNN erfolgte jedoch erst 2012 mit dem Beitrag von Krizhevsky/Sutskever/Hinton beim sogennanten ImageNet-Wettbewerb. So ist es dem Team der Universität Toronto um DL-Pionier Geoffrey Hinton gelungen, die Fehlerrate bisheriger Ansätze im Bereich Computer Vision deutlich zu reduzieren. Ein entscheidender Faktor für den damaligen Erfolg war, dass zum Training nicht nur ein sogenanntes Convolutional Neuronal Networks (CNN), eine auf Bildinput angepasste Architekturvariante herkömmlicher KNNs zum Einsatz kam, sondern dass zum Training erstmals schnelle, parallel organisierte GPU-Prozessoren eingesetzt wurden (Sudmann 2016).

Die Forschungsleistungen im Bereich KNN sind bis heute zudem ein wichtiger Referenzpunkt für die Konzeption sogenannter nichtklassischer, z.B. sogenannter neuromorpher Computer, die eine Abkehr vom bisherigen Digitalcomputer nach der Von-Neumann-Architektur bedeuten und von denen man sich ebenfalls verspricht, dass sie die Funktionsweise des menschlichen Gehirns besser zu verstehen helfen und sich unter Umständen vielleicht sogar selbst programmieren können (vgl. Beitrag von Sudmann, vgl. dazu u.a. auch DeepMinds Arbeiten zur sogenannten »Neural Turing Machine« u.a. Aron 2014). Inwieweit KNN auch in Zukunft das Feld des maschinellen Lernens dominieren werden, bleibt abzuwarten. Vorerst scheint jedenfalls ihre Vorherrschaft gesichert zu sein. Dennoch haben wir uns als Herausgeber bewusst entschieden, den Fokus nicht allein auf die Medien, Infrastrukturen und Technologien der KNN zu beschränken, sondern uns ebenso mit der Frage des maschinellen Lernens allgemein zu beschäftigen.

ZUR STRUKTUR DES BANDES

Andreas Sudmann und Christoph Engemann

Der vorliegende Band gliedert sich in insgesamtfünf Rubriken, welche – nicht immer ganz trennscharf – die hier versammelten theoretisch-historischen Zugriffe auf die Medien, Instratrukturen und Technologien maschineller Lernverfahren gliedern.

Die erste Gruppe der Beiträge lässt sich unter der Rubrik »Epistemologien und Genealogien des maschinellen Lernens« zusammenfassen. Ihr erster Beitrag, verfasst von Bernhard Dotzler, zieht in Zweifel, inwiefern die mit dem Machine Learning einhergehende Rhetorik einer epistemisch-technischen Zäsur gerechtfertigt ist. Mit Verweis auf die von Alan Turing beschriebenen, nicht weiter zerlegbaren Grundoperationen der »machine computability«, argumentiert er, dass diese bis heute Basis jeglicher Künstlicher Intelligenz sei. Das gelte auch und gerade für das Machine Learning, das immer noch auf dieser ›kleinen Intelligenz‹ beruhe, diese aber vor dem Hintergrund heutiger Miniaturisierungmöglichkeiten lediglich mit ungeahnter Komplexität verschalte. Eine (medien-)wissenschaftliche Forschung zur künstlichen Intelligenz ist damit auf die Notwendigkeit verwiesen, sich die materiellen Grundlagen dieser Techniken intelligibel zu machen. Sie ist aber auch angehalten, den empathischen Aufladungen von Begriffen wie Intelligenz, neuronalen Netzen und Lernen, mit skeptischen Verweisen auf die technischen Anordnungen und Grundlagen zu begegnen.

An diese Debatte anknüpfend und tendenziell eine Gegenposition beziehend, stellt Andreas Sudmann die Grundlagen künstlicher neuronaler Netzwerke in ihrer historischen Entwicklung und aktuellen Fortentwicklung dar. Die Revolutionsrhetorik des Machine-Learning-Diskurses aufnehmend, erweitert er auf dieser Basis die Fragestellung nach dem Verhältnis von Medien und Revolutionen und zeigt, dass gängige Mediengeschichtsschreibungen des Computers hier revisionsbedürftig werden. Denn die Funktionsweise künstlicher neuronaler Netzwerke gehorcht – und zwar selbst dort, wo sie auf digitalen Rechnern implementiert werden – eher analogen Prinzipien. Zudem verdankt sich auch der jüngere Erfolg der KNN ihrer Anwendung auf parallelen GPU-Prozessoren, deren Operationsweise ebenfalls zur Funktionsweise klassischer Digitalrechner gemäß der seriell organisierten Von-Neumann-Architektur quer steht. Damit eröffnet sich auch die Frage, ob das maschinelle Lernen des DL weniger als digitale, sondern als buchstäblich postdigitale Informationstechnologie verstanden werden muss.

Das Maschinen und Lernen bereits lange vor der aktuellen Konjunktur eine enge Beziehung aufwiesen, verdeutlicht Herman Rotermund in seinem Beitrag. Anhand der von Charles Babbage bereits in der ersten Hälfte des 19. Jahrhunderts entwickelten Mechanical Notation, zeigt er, dass mit der industriellen Revolution und ihrer Proliferation von Maschinen, das Problem ihrer Vereinheitlichung kritisch wurde. Rotermund legt dabei nahe, dass die mit der Mechanical Notation beabsichtigte Standardisierung ebenso sehr dem Versuch geschuldet ist, Maschinensysteme in eine semiotische und damit letztlich programmierbare Form zu überführen, wie der Notwendigkeit, das Führen von Maschinen für Vorarbeiter erlernbar zu machen. Rotermund sieht die Mechanical Notation als frühe Form einer Hardware Description Language, jedoch mit dem universellen Anspruch verbunden, Aufgaben des Industrial Design zu lösen, die aufgrund ihrer Komplexität von Menschen allein nicht bewältigt werden können. Auf diese Weise eröffnet Rotermund eine Diskussion über die historische Genese des maschinellen Lernens als industrielle Prozesse der engen Verschränkung semiotischer Systeme und maschineller Konstruktionen.

Eine kritische Reflexion der Epistemologien maschineller Lernverfahren ist Gegenstand des Beitrags von Luciana Parisi. Zu den Feinheiten maschinellen Lernens gehört ihrer Ansicht nach, dass in sie die historische Artikulation der Spannung zwischen Information und Energie, Muster und Zufälligkeit, Signal und Rauschen, logischen Prozeduren und Unberechenbarkeiten eingeschrieben ist. Dabei wendet sich Parisi den Kontextualitäts- und Temporalitätskonstruktionen maschineller Lernverfahren zu. Zum einen, so ihre Argumentation, markiert der Übergang vom Programmieren zum Lernen die Abwertung deduktiver zugunsten von induktiver und abduktiver Verfahren. Implizit ist damit jedoch das Verhältnis von Vergangenheit, Gegenwart und Zukunft modifiziert, denn während beim deduktiv orientierten Programmieren die Vergangenheit die Zukunft informiert, evoluiert bei der Induktion und Abduktion die Vergangenheit von der Zukunft her. Zum anderen ziele das Machine Learning auf die Extraktion von Bedeutungen ab und erschüttere damit das informationstheoretische Paradigma der Trennbarkeit von Information und Sinn. Da aber Bedeutungen soziale Konstrukte sind, sie zudem die Orientierung in Vergangenheit, Gegenwart und Zukunft organisieren und jetzt alltäglich zugleich Input- wie Output von Machine Learning Verfahren werden, gilt es zu erschließen, welche Epistemologien oder gar Ontologien des Denkens in diesem techno-sozialen Ensemble des Machine Learning entstehen. Im Rahmen ihres Ausblicks erhofft sie, mit der Erforschung des Status des Lernens in rezenten Formen algorithmischer Intelligenz, einen Ausgangspunkt einer Auto-Kritik (auto-critique) der Instrumentalität gewinnen zu können.

Die zweite Sektion des Buches widmet sich den historischen Imaginationen und Diskursformationen zu (autonomen) Lernmaschinen. In einer breiten historischen Analyse widmet sich Stefan Riegers Beitrag den diskursiven Auseinandersetzungen mit dem Maschinellen. Wie Rieger zeigt, führt deren historisch keineswegs immer gleichermaßen negativ besetzte Semantik spätestens seit der Goethezeit zur dominanten Mechanophobie. Besonders anfällig dafür waren Pädagogik und Ästhetik. Heutzutage werden computergenerierte Kunstwerke genauso wie maschinelle Lehr- und Lernverfahren zu einem Brennpunkt ideologischer Auseinandersetzungen. Ob ihrer argumentativen Ungeschütztheit und ungefilterten Vehemenz, so Rieger, scheinen diese besonders geeignet, die sowohl untergründigen wie manifesten Vorbehalte gegenüber dem bloß Mechanischen dingfest zu machen.

Jeremias Herbergs Beitrag kritisiert und historisiert eine kybernetische Kontrollvorstellung in der Bildungspolitik: In einer diachronischen Perspektivierung der aktuellen Rede des maschinellen Lernens geht er der Wirkungsgeschichte kybernetischer Konzepte in der amerikanischen Bildungspolitik der sechziger Jahre nach. Im Anschluss an kybernetische Modelle zeigt er, wie Schulen und andere Bildungseinrichtungen als Umgebungen modelliert werden, die Selbststeuerungspotentiale durch spezifische Feedbackarrangements erzeugen sollen.

Der gemeinsame Beitrag von Thomas Christian Bächle, Christoph Ernst, Jens Schröter und Caja Thimm untersucht schließlich das maschinelle Lernen im Zusammenhang bzw. als Voraussetzung der Zuschreibung von Autononomie an Computersystemen. Die Autoren gehen von der Beobachtung aus, dass die Wissensproduktion maschineller Lernprozesse sowie korrespondierende Prozesse der Automatisierung eng an das Vorhandensein eines historisch beispiellosen Datenreichtum gebunden ist. Gleichzeitig betonen sie die Bottom-Up-Struktur maschineller Lernprozesse, die scheinbar eine (von Menschen) vorgegebene Wissens- oder Orientierungsordnung obsolet macht. Wie im Beitrag argumentiert wird, beruhen jedoch viele der Annahmen über die Autonomie selbstlernender Systeme auf Kategorienfehlern und tradierten Zuschreibungen an ›künstliche Intelligenzen‹, wodurch insbesondere die spezifische Rolle von Medientechnologien bei der Konzeption von Wahrnehmungs- und Bewusstseinsprozessen nur unzureichend berücksichtigt wird. Am Beispiel des sogenannten Differentiable Neural Computer (DNC) von Alphabet zeigt sich dieser Umstand in einem bisher nicht aufgelösten Widerspruch: Einerseits wird Lernen in seiner maschinellen Ausprägung auf einen instrumentellen Ansatz (als spezifisches mathematisches Problemlösungsverfahren) verengt; andererseits wird ihm jedoch das Potenzial zugeschrieben, alte Probleme der KI-Forschung lösen zu können. Das maschinelle Lernen erscheint damit als symptomatischer Fall eines reduzierten Verständnisses von Autonomie, das unter anderem eine praxeologische Verortung (z.B. praktische Kreativität in konkreten Handlungssituationen) von Lernen und Wissen vernachlässigt.

Die herausragende Bedeutung von Big Data und Data Mining hat man in den Medien- und Kulturwissenschaften bereits zu einem Zeitpunkt reflektiert, als man über maschinelles Lernen noch nicht viel wusste. Insofern ist der aktuelle Boom der KI auch ein neuer Anlass, erneut über die Rolle der Daten und die mit ihnen verbunden Praxen nachzudenken, bevor, nachdem und während sie von Lernalgorithmen bearbeitet werden. Genau diese Perspektive nehmen die Texte der dritten Sektion des Bandes ein.

Inwieweit die im Zuge des maschinellen Lernens notwendigen Datenpraktiken naive Vorstellungen von Daten als vorfindliche Informationen konterkarieren, arbeitet Daniel Cardoso Llach in seinem Beitrag auf. Anhand eines Beispiels aus der Frühgeschichte maschineller Lernverfahren arbeitet er heraus, dass ästhetische Überlegungen und Kriterien für diese Datenpraxen charakteristisch sind. Daten werden durch stilistische und kuratorische Entscheidungen zu Daten, und es sind diese ästhetischen Eingriffe, die die darauf operierenden Machine-Learning-Verfahren in ihren Freiheitsgraden auf ein erwünschtes Ziel hin ausrichten. Llach schlägt entsprechend vor, die Fokussierung auf die Interfaces der Machine Learning-Applikationen zu erweitern und Daten selbst als Schnittstellen zu verstehen. Das gilt gerade für die Designdiskurse in der Architektur, bei denen mittels maschineller Lernverfahren Fassaden, Statiken oder andere bautechnische Elemente entwickelt werden, ohne dass der Status der in diese Projekte eingehenden Daten Gegenstand einer ausreichenden Reflexion wäre.

Dem kritisch unterbestimmten Status von Daten in einem sehr viel existenzielleren Kontext geht auch Jutta Weber in ihrem Beitrag nach. Ihre Untersuchung der medialen Infrastrukturen und Datenpraxen des ›War on Terror‹ fokussieren den unsicheren und unscharfen Status der Daten, die nicht zuletzt für Tötungsentscheidungen herangezogen werden. Dabei geht es ihr aber nicht um die Skandalisierung einer mangelnden Qualität der Datenakquise und -auswahl, sondern darum, den strukturellen Status dieser Unsicherheiten herauszuarbeiten. Gerade diese Unsicherheit erweist sich als Ressource eines auf Präemption abgestellten Sicherheitsdispositivs, dessen medientechnischen Grundlagen Datenbanken und Machine Learning-Verfahren verkörpern. Maschinell berechnete, probabilistische Risiken sind, so Weber, mindestens im War on Terror politisch transformativ und müssen in ihren weiteren Implikationen kritisch beforscht werden.

Dem Status der Körperlichkeit in Machine Learning-Verfahren geht Christoph Engemann anhand der Rolle und Genese von Trainingsdatensätzen bei überwachten Lernverfahren nach. Dabei wird gezeigt, dass duratierte Trainingsdatensätze eine entscheidende Vorraussetzung für funktionierende Machine Learning-Anwendungen sind, diese aber trotz Fortschritten in der Automatisierung immer noch weitgehend auf ein händisches Labeling der Daten rekurrieren (siehe auch Sudmann 2017c). Die Praxis des Labeling ist dabei ein Akt der Zuordnung von Wörtern zu Daten, denen wiederum darin ein Referent im Realen zugeschrieben wird. Engemann bezeichnet dies als Indexikalisierungsarbeit und betont den Status menschlicher Körpern in diesem Prozeß, bei dem sie zugleich als Zuordnungsinstanzen der Beziehung zwischen Daten und Dinge, wie auch als Addressaten dieser Zuordnungen fungieren. Vor diesem Hintergrund argumentiert er, dass die Forschung zum Machine Learning von ihrem Fokus auf Algorithmen auf die Beforschung der Trainingsdatensätze und den Verfahren ihrer Verfügung und Verfertigung ausgeweitet werden müsse.

Den Abschluss der Sektion über Datenpraktiken markiert der Beitrag von Lev Manovich. Letzterer schlägt den Begriff der »Media Analytics« vor, um mit ihm die von großen Plattformanbietern wie Facebook, Google und Netflix entwickelten Verfahren zur computerisierten Analyse sowohl von Online-Content als auch von dessen Nutzerinteraktionen zu bezeichnen. Manovich bezeichnet mit dem Konzept eine historisch neue Etappe in der Entwicklung technischer Medien. Diese zeichne sich nicht primär durch neue Mechanismen der Erzeugung, Veröffentlichung oder Verteilung aus, sondern sei dadurch gekennzeichnet, dass Computersysteme nunmehr umfassend die Inhalte digitaler Online-Medien automatisch analysieren und diese Analysen wiederum zu automatisierten Aktionen führen. Die Umgebungen, die Plattformanbieter bauen, sind auch als Trainingssysteme für Machine Learning-Prozesse verstehbar, deren Attraktiviät durch deren Machine Learning Anwendungen steigt, was wiederum den Datenreichtum der Plattformen erhöht. Machine Learning ist somit ein essentieller Teil der positiven Feedbackschleife zwischen Nutzern und Plattformen. Entsprechend sieht Manovich das maschinelle Lernen als ein entscheidendes Instrument im Repertoire der Media Analytics, die die Verschränkung von Kultur und deren Analyse für viele bisher der computerisierten Analyse unzugänglichen Bereiche aufschließt.

Eine vierte Sektion widmet sich Fragestellungen zur Materialität und Ästhetik lernender Maschinen. Ausgehend von einer historischen Synopse prozessualer Operationen musikalischen Schaffens und Komponierens, untersucht Franziska Kollinger die Folgen des Eintritts von Automaten und Maschinen in die musikästhetischen Praxen. Ein Sektor, auf dem Methoden wie Deep Learning Anwendung finden, ist die Komposition von Musik. Während die Verwendung von Computern zur Klangerzeugung ebenso wenig neu ist wie das Komponieren mit Algorithmen, bringt die Digitalisierung von Klang jedoch gänzlich neue Herausforderungen mit sich. Diese verändern nicht nur die Verfahrensweisen der Musikproduktion langfristig, sondern stellen den tradierten Musikbegriff als solchen infrage, da nicht mehr mit zuvor selbstverständlichen Kategorien wie Material und Struktur operiert werden kann. Ausgehend von dieser Beobachtung diskutiert der Artikel in historischer Perspektive die ästhetischen und medialen Voraussetzungen von computergenerierter Musik einerseits und Komposition andererseits. Der Bezug von maschinellem Lernen und Musik wird auf diese Weise veranschaulicht und überführt den Diskurs von einer bloßen (De-)Legitimation neuer Technologien in eine Reflexion der kunsttheoretischen Konsequenzen.

Stellt Kollingers Beitrag die Relevanz des maschinellen Lernens für den Bereich des Auditiven heraus, widmet sich der Text von Hito Steyerl der visuellen Dimension maschineller Wahrnehmungsweisen, die in den letzten Jahren immer mehr durch Big-Data- und KI-Technologien geformt werden. Steyerl betrachtet das maschinelle Sehen in dem Zusammenhang der Apophänie, d.h. der Wahrnehmung von Mustern in zufälligen Daten, unter anderem mit Bezug auf Googles DeepDream-Algorithmus. Unter Rückgriff auf die klassische Unterscheidung von Signal und Rauschen argumentiert Steyerl in ihrer kritischen Analyse des Machine Learning, dass maschinisierte Apophänien wie DeepDream mehr sind als Bilder des Rausches, des Wahns oder bizarrer Träume: Sie seien vielmehr in der Tat Repräsentation der vernetzten Operationen maschineller Bildgebungsverfahren samt ihrer spezifischen »hardcodierten Ideologien«.

Schließlich fordern die Ideologien der algorithmischen Kultur auch dazu heraus, das Verhältnis ihrer materiellen und immateriellen Verflechtungen und Relationen diesseits und jenseits ihrer ästhetische sichtbaren und greifbaren Phänomene neu auszuloten. So widmet sich Yvonne Försters Beitrag den Wechselwirkungen zwischen Konzepten künstlicher und menschlicher Intelligenz auf Basis des Dualismus von Körper und Geist. Dabei geht Förster von der Hypothese aus, dass sowohl maschinelles Lernen als auch kognitionswissenschaftliche Konzepte tendenziell reduktionistisch verfahren und zwischen Ver- und Entkörperlichungsszenarien oszillieren. Mithin geht es hier um Positionen, die Körpern entweder keinen epistemologischen Status für die Entwicklung von KIs zuschreiben oder selbige notwendig auf Körper verwiesen sehen. Dabei gehen die Embodiment- und Enactivismus-Ansätze davon aus, dass kognitive Prozesse aus Organismus-Umwelt Interaktionen emergieren. Wenn auch nicht notwendig zielgerichtet, setzt das Lernen eine strukturelle Kopplung von Organismen und Umwelt voraus. Implementiert man solche Verfahren in Robotern und anderen Objekten, so schließt Förster ähnlich wie Stefan Rieger in diesem Band, kommt es zu Unheimlichkeitseffekten. Während diese ästhetisch insbesondere im populären Film bereits in vielfältiger Weise verhandelt werden, steht eine Diskussion der sich daraus ergebenden epistemologischen Herausforderungen noch weitgehend aus.

Der spezifische Blick auf die Verkörperung der KI, gerade mit Blick auf Einschreibungen von Gender ist auch das bestimmende Motiv des Beitrags von Ulrike Bergermann. In ihrem Beitrag geht sie davon aus, dass die Schnittstellen für das Machine Learning oft mit Attributen versehen sind, die Weiblichkeit artikulieren sollen. Tatsächlich zeigt Bergermann jedoch auf, dass die Verbindungen von Lernen und Geschlecht intrakter sind. Der Beitrag verfolgt sie in drei Perspektiven: Mit Alan Turings Text zum »Turing-Test« Computing machinery and intelligence von 1950, mit kinematischen Phantasmen um 2000 und mit Preciados Testosteron-Reallabor am Anfang des 21. Jahrhunderts. Zwei Wissenschaftsgeschichten und der ins Imaginäre delegierte Teil der Technikgeschichte verfolgen die Verflochtenheit des maschinellen Lernens mit ihren Genderings.

Neben vielen Beiträgen aus den Geistes- und Kulturwissenschaften sollen auch die Einschätzungen der Data und Computer Scientists selbst nicht fehlen. Die Herausgeber des vorliegenden Bandes freuen sich, mit Roland Memisevic und Yoshua Bengio zwei der weltweit führenden Experten im Bereich des Deep Learning als Interviewpartner gewonnen zu haben. Neben grundsätzlichen Fragen zur Technologie des Deep Learning geht es in den Beiträgen auch um die Frage, welche Medien an der Hervorbringung und Formierung moderner DL-Technologien beteiligt sind.

Die Auseinandersetzung mit maschinellen Lernverfahren als geistes- und kulturwissenschaftliches Unternehmen hat gerade erst begonnen. Als Herausgeber des vorliegenden Bandes hoffen wir, dass die hier versammelten Texte einen wichtigen Beitrag leisten, die gegenwärtigen und zukünftigen Transformationen der Medienkultur durch maschinelle Lernverfahren angemessen einordnen und reflektieren zu können.

LITERATUR

Amir, Eyal (2014): »Reasoning and decision making«. In: Frankish, Keith/Ramsey, William M. (Hg.): The Cambridge Handbook of Artificial Intelligence. Cambridge: Cambridge University Press: 191-212. DOI: https://doi.org/10.1017/CBO9781139046855.013

Aron, Jacob (2014): »Computer with Human-like Learning Will Program Itself«. In: New Scientist. 29.10.: https://www.newscientist.com/article/mg22429932-200-computer-with-human-like-learning-will-program-itself/?curator=MediaREDEF (07.05.2016).

Bain, Alexander (1873): Mind and Body the Theories of Their Relation. London: Henry S. King & Company.

Barrat, James (2013): Our Final Invention. Artificial Intelligence and the End of the Human Era. New York: Thomas Dunne Books.

Becker, Ilka/Cuntz, Michael/Kusser, Astrid (Hg.) (2008): Unmenge. Wie verteilt sich Handlungsmacht? München: Fink.

Bengio, Yoshua (2011): »Deep Learning of Representations for Unsupervised and Transfer Learning«. In: JMLR: Workshop and Conference Proceedings 7: 1-20.

— (2009): »Learning Deep Architectures for AI«. In: Foundations and Trends in Machine Learning 2.1: 1-127.

Bergermann, Ulrike (2015): Leere Fächer. Gründungsdiskurse in Kybernetik & Medienwissenschaft. Berlin et al.: Lit.

Böhnke, Alexander/Schröter, Jens (Hg.) (2004): Analog/Digital? – Opposition oder Kontinuum. Bielefeld: transcript.

Bolz, Norbert (1994): »Computer als Medium – Einleitung«. In: Bolz, Norbert/Kittler, Friedrich/Tholen, Christoph (Hg.): Computer als Medium. München: Fink: 9-16.

Borck, Cornelius (2013): Hirnströme. Eine Kulturgeschichte der Elektroenzephalographie. Göttingen: Wallstein.

Bostrom, Nick (2014): Superintelligence. Paths, Dangers, Strategies. Oxford: Oxford University Press.

Bryson, Arthur E. (1961): »A Gradient Method for Optimizing Multi-stage Allocation Processes«. In: Proceedings of the Harvard University Symposium on Digital Computers and their Applications.

Bublitz, Hannelore/Kaldrack, Irina/Röhle, Theo/Winkler, Hartmut (Hg.) (2011): Unsichtbare Hände. Automatismen in Medien-, Technik- und Diskursgeschichte. München: Fink.

Craik, Fergus I.M./Lockhart, Robert S. (1972): »Levels of Processing: A Framework for Memory Research«. In: Journal of Verbal Learning and Verbal Behavior 11.6: 671-684. DOI: https://doi.org/10.1016/S0022-5371(72)80001-X

Crevier, Daniel (1993): AI. The Tumultuous History of the Search for Artificial Intelligence. New York: Basic Books.

Domingos, Pedro (2015): The Master Algorithm. How the Quest for the Ultimate Learning Machine Will Remake Our World. New York: Basic Books.

Dotzler, Bernhard (1989): »Know/Ledge: Versuch über die Verortung der Künstlichen Intelligenz«. In: MaschinenMenschen. Katalog zur Ausstellung des Neuen Berliner Kunstvereins, 17.-23.07. Berlin: NBK: 127-132.

— (2006): Diskurs und Medium. Zur Archäologie der Computerkultur. Band 1. München: Fink.

Dreyfus, Herbert L./Dreyfus, Stuart E. (1988): »Making a Mind Versus Modelling the Brain. Artificial Intelligence Back at a Branchpoint«. In: Daedalus 117.1: 185-197.

Dreyfus, Stuart E (1973): »The Computational Solution of Optimal Control Problems with Time Lag«. In: IEEE Transactions onAutomatic Control 18.4: 383-385. DOI: https://doi.org/10.1109/TAC.1973.1100330

Engemann, Christoph/Feigelfeld, Paul (2017): »Distributed Embodiement«. In: Kries, Mateo/ Thun-Hohenstein, Christoph/Klein, Amelie (Hg.): Hello Robot. Design zwischen Mensch und Maschine. Weil am Rhein: Vitra Desing Museum: 252-259.

Eke, Norbert Otto/Foit, Lioba/Kaerlein, Timo/Künsemöller, Jörn (Hg.) (2014): Logiken strukturbildender Prozesse: Automatismen. Paderborn: Fink.

Ernst, Wolfgang (2013): Digital Memory and the Archive. Parikka, Jussi (Hg.): Minneapolis: University of Minnesota Press.

Ferrier, David (1876): The Functions of the Brain. New York: GP Putnam’s Sons. DOI: https://doi.org/10.1037/12860-000

Finn, Ed (2017): What Algorithms Want. Imagination in the Age of Computing. Cambridge, MA: MIT Press. DOI: https://doi.org/10.7551/mitpress/9780262035927.001.0001

Friedenberg, Jay D./Silverman, Gordon (2006): Cognitive Science. An Introduction to the Study of Mind. Thousand Oaks: Sage.

Funke, Joachim/Zumbach, Jörg (2006): »Problemlösen«. In: Mandl, Heinz/Friedrich, Helmut Felix (Hg.): Handbuch Lernstrategien. Göttingen: Hogrefe: 206-220.

Galloway, Alexander R (2004): Protocol. How Control Exists After Decentralization. Cambridge, MA: MIT Press.

— /Thacker, Eugene (2007): The Exploit. A Theory of Networks. Minneapolis: University of Minnesota Press.

Gopnik, Alison/Meltzhoff Andrew N./Kuhl, Patricia K. (1999): The Scientist in the Crib. What Early Learning Tells Us About the Mind. New York: William Morrow & Co.

Goodfellow, Ian/Bengio, Yoshua/Courville, Aaron (2016): Deep Learning. Cambridge; London: MIT Press.

Grzesik, Jürgen (2002): Operative Lerntheorie. Neurobiologie und Psychologie. Bad Heilbrunn/Obb.: Klinkhardt.

Hayles, N. Katherine (2012): How We Think. Digital Media and Contemporary Technogenesis. Chicago: University of Chicago Press.

Hacking, Ian (1975): The Emergence of Probability. A Philosophical Study of Early Ideas About Probability Induction and Statistical Inference. New York: Cambridge University Press.

— (1999): How We Became Posthuman. Virtual Bodies in Cybernetics, Literature, and Informatics. Chicago: University of Chicago Press.

Hebb, Donald Olding (1949): The Organization of Behavior. A Neuropsychological Approach. New York: John Wiley & Sons.

Herrmann, Ulrich (Hg.) (2006): Neurodidaktik. Grundlagen und Vorschläge für gehirngerechtes Lehren und Lernen. Weinheim: Beltz.

Hinton, Geoffrey E (1986): »Learning distributed representations of concepts«. In: Proceedings of the Eights Annual Conference of the Cognitive Science Society. Amherst, MA: Erlbaum, NJ.

—, Osindero, Simon/Teh, Yee-Whye (2006): »A fast learning algorithm for deep belief nets«. In: Neural computation 18.7: 1527-1554.

Hofstadter, Douglas R./Dennett, Daniel C. (1981): The Mind’s I. Fantasies and Reflections on Self and Soul. Brighton: Harvester Press.

Horgan, Terence/Tienson, John (1996): Connectionism and the Philosophy of Psychology. Cambridge: MIT Press.

Hörl, Erich (2011): Die technologische Bedingung. Beiträge zur Beschreibung der technischen Welt. Berlin: Suhrkamp.

Huhtamo, Erkki/Parikka, Jussi (Hg.) (2011): Media Archaeology. Approaches, Applications, and Implications. Berkeley; Calif: University of California Press.

Kelley, Henry (1960): »Gradient theory of optimal flight paths«. In: Ars Journal 30: 947-954. DOI: https://doi.org/10.2514/8.5282

Kirschenbaum, Matthew (2008): Mechanisms. New Media and the Forensic Imagination. Cambridge; London: MIT Press.

Kittler, Friedrich A. (2013): Die Wahrheit der technischen Welt. Essays zur Genealogie der Gegenwart. Hans Ulrich Gumbrecht (Hg.). Berlin: Suhrkamp.

—. »Die künstliche Intelligenz des Weltkriegs. Alan Turing«. In: Gumbrecht, Hans Ulrich (Hg.): Die Wahrheit der technischen Welt. Essays zur Genealogie der Gegenwart. Berlin: Suhrkamp: 232-252.

— /Dotzler, Bernhard (Hg.) (1987): Alan Turing. Intelligent Service. Schriften. Berlin: Brinkmann & Bose.

— (1986): Grammophon/Film/Typewriter. Berlin: Brinkmann & Bose.

— (Hg.) (1980): Austreibung des Geistes aus den Geisteswissenschaften. Programme des Poststrukturalismus. Paderborn: Schöningh.

Krämer, Sybille (2015): Ada Lovelace. Die Pionierin der Computertechnik und ihre Nachfolgerinnen. Paderborn: Fink.

— (Hg.) (1994): Geist – Gehirn – künstliche Intelligenz. Zeitgenössische Modelle des Denkens. Berlin: De Gruyter.

— »Was haben die Medien, der Computer und die Realität miteinander zu tun? Zur Einleitung in diesem Band«. In: Dies. (Hg.) (1998): Medien – Computer – Realität – Wirklichkeitsvorstellungen und Neue Medien. Frankfurt: Suhrkamp: 9-26.

Krause, Ulrike-Marie (2007): Feedback und kooperatives Lernen. Münster: Waxmann.

Krizhevsky, Alex/Sutskever, Ilya/Hinton, Geoffrey E. (2012): »ImageNet Classification with Deep Convolutional Neural Networks«. In: Advances in Neural Information Processing Systems 25: 1097-1105.

Kurzweil, Ray (2013): How to Create a Mind. The Secret of Human Thought Revealed. New York: Penguin Books.

La Mettrie, Julian Offray de (2001 [1747]): Der Mensch eine Maschine. Stuttgart: Reclam.

LeCun, Yann/Bengio, Yoshua /Hinton, Geoffrey E. (2015): »Deep Learning«. In: Nature 521: 436-444. DOI: https://doi.org/10.1038/nature14539

Linnainmaa, Seppo (1970): »The Representation of the Cumulative Rounding Error of an Algorithm as a Taylor Expansion of the Local Rounding Errors«. Master’s Thesis (in Finnish): University of Helsinki.

Lovink, Geert (2011): Networks Without a Cause. A Critique of Social Media. Cambridge, UK: Polity Press.

Mackenzie, Adrian (2017): Machine Learners. Archeaology of Data Practice. Cambridge, MA: MIT Press.

Manning, Christopher D (2015): »Computational Linguistics and Deep Learning«. In: Computational Linguistics 41.4: 701-707. DOI: https://doi.org/10.1162/COLI_a_00239

Manovich, Lev (2001): The Language of New Media. Cambridge, MA: MIT Press.

McCarthy, John/Minsky, Marvin L./Rochester, Nathaniel/Shannon, Claude E. (2016): »A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence«. 31. August 1955. In: AI Magazine 27.4: 12.

McCorduck, Pamela (2004 [1979]): Machines Who Think. A Personal Inquiry into the History and Prospects of Artificial Intelligence. London: Taylor & Francis.

McCulloch, Warren S./Pitts, Walter (1943): »A Logical Calculus of the Ideas Immanent in Nervous Activity«. In: The Bulletin of Mathematical Biophysics 5.4: 115-133. DOI: https://doi.org/10.1007/BF02478259

Metzig, Werner/Schuster, Martin (2006): Lernen zu lernen. 7. Auflage. Berlin: Springer.

Minsky, Marvin Lee/Papert, Seymour (1969): Perceptrons. An Introduction to Computational Geometry. Cambridge, MA: MIT Press.

Mitchell, Thomas (1997): Machine Learning. New York: McGraw-Hill.

Müller, Vincent C. (2016): Risks of Artificial Intelligence. London: CRC Press.

Nohr, Rolf (2008): Die Natürlichkeit des Spielens. Vom Verschwinden des Gemachten im Computerspiel. Münster et al.: LIT Verlag.

Pasquinelli, Matteo (2017): »Machines that Morph Logic: Neural Networks and the Distorted Automation of Intelligence as Statistical Inference«. In: Glass Bead journal: »Logic Gate: The Politics of the Artifactual Mind«: 1.

Pauen, Michael/Roth, Gerhard (2001): Neurowissenschaften und Philosophie. München: Fink.

Pias, Claus (2011): »On the Epistemology of Computer Simulation«. In: Zeitschrift für Medien- und Kulturforschung 1: 29-54.

—, (Hg.) (2004): Cybernetics – Kybernetik 2: The Macy-Conferences 1946-1953. Zürich: Diaphanes.

—, (Hg.) (2003): Cybernetics – Kybernetik 1: The Macy-Conferences 1946-1953. Zürich: Diaphanes.

Porter, Theodore M (1986): The Rise of Statistical Thinking1820-1900. Princeton, NJ: Princeton University Press.

Ramsey, William/Rumelhart, David E./Stich, Stephan P. (Hg.) (1991): Philosophy and Connectionist Theory. Hilsdale: Lawrence Erlbaum.

Reichert, Ramón (2014): Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie. Bielefeld: transcript.

Rieger, Stefan (2003): Kybernetische Anthropologie. Eine Geschichte der Virtualität. Frankfurt a.M.: Suhrkamp.

Rojas, Raul (2013): Theorie der neuronalen Netze. Eine systematische Einführung. Berlin: Springer.

Rosenblatt, Frank (1958): »The Perceptron. A Probabilistic Model for Information Storage and Organization in the Brain«. In: Psychological Review 65.6: 386-408. DOI: https://doi.org/10.1037/h0042519

Rotman, Brian (2000): Mathematics as Sign: Writing, Imagining, Counting. Stanford: Stanford University Press.

Rumelhart, David E./Hinton, Geoffrey E./Williams, Ronald J. (1986): »Learning Internal Representations by Error Propagation«. In: Rumelhart, David E./McClelland, James L. (Hg.): Parallel Distributed Processing: Explorations in the Microstructure of Cognition. Vol. 1: Foundations. Cambridge, MA: Bradford Books/MIT Press: 318-362.

— /James L. McClelland (Hg.) (1986): Parallel Distributed Processing. Explorations in the Microstructure of Cognition. Cambridge, MA: MIT Press.

Russell, Stuart/Norvig, Peter (2013): Artificial Intelligence. A Modern Approach. 3. Auflage. New Jersey: Prentice Hall.

Schmidgen, Henning (2014): Hirn und Zeit. Die Geschichte eines Experiments, 1800-1950. Berlin: Matthes & Seitz.

— (2001): »Der Psychologe der Maschinen. Über Gilbert Simondon und zwei Theorien technischer Objekte«. In: Kraft Alsop, Christiane (Hg.): Grenzgängerin. Bridges Between Disciplines. Festschrift für Irmingard Staeuble. Heidelberg et al.: Asanger: 265-287.

Schmidhuber, Jürgen (2015): »Deep learning in Neural Networks. An Overview«. In: Neural Networks 61: 85-117. DOI: https://doi.org/10.1016/j.neunet.2014.09.003

Searle, John R. (1980): »Minds, Brains, and Programs«. In: Behavioral and Brain Sciences 3.3: 417-424. DOI: https://doi.org/10.1017/S0140525X00005756

Shalev-Shwartz, Shai/Ben-David, Shai (2014): Understanding Machine Learning. From Theory to Algorithms. New York: Cambridge University Press. DOI: https://doi.org/10.1017/CBO9781107298019

Siegert, Bernhard (2003): Passage des Digitalen. Berlin: Brinkmann & Bose.

Sprenger, Florian/Engemann, Christoph (2015): Internet der Dinge. Über smarte Objekte, intelligente Umgebungen und die technische Durchdringung der Welt. Bielefeld: transcript. DOI: https://doi.org/10.14361/9783839430460

Sudmann, Andreas (2016): »Wenn die Maschinen mit der Sprache spielen«. In: Frankfurter Allgemeine Zeitung Nr. 256.02.11., N2.

— (2017a): Serielle Überbietung. Zur Fernsehästhetik und Fernsehphilosophie exponierter Steigerungen. Stuttgart: J.B. Metzler.

— (2017b): »Das intuitive Wissen der Maschinen«. In: Neue Zürcher Zeitung. 27.10.: 59.

— (2017c): »Deep Learning als dokumentarische Praxis«. In: Sprache und Literatur 48:2: 155-170.

Terhart, Ewald (2009): Didaktik. Eine Einführung. Stuttgart: Reclam.