Aufstieg der intelligenten Maschinen
Rechenleistung und Datenberge lassen Künstliche Intelligenz Realität werden. Doch was steckt hinter der Technik?

Foto: panthermedia.net/Andreus
Computer schlagen menschliche Meister in Spielen wie Schach und Go, hören uns zu und sprechen mit uns, erkennen Gesichter, Objekte und manövrieren Autos wie von Geisterhand selbstständig durch den Straßenverkehr.
Und sie sollen bald noch viel mehr können. Weltweit arbeiten Forscher an Universitäten und in Konzernen an der Künstlichen Intelligenz (KI). Praktisch alle IT-Größen wie Apple, Google, Microsoft, IBM und Amazon feiern den Aufstieg der KI.
Sie werde unser aller Leben besser machen, prophezeien beispielsweise Bill Gates und Google Entwicklungschef Ray Kurzweil. Doch es gibt auch kritische Stimmen. Tesla- und Space-X-Gründer Elon Musk warnt vor den intelligenten Computern als „potenziell größte Gefahr der Menschheit, die einen dritten Weltkrieg auslösen könnte“. Einig sind sich alle, dass dieser Technikzweig das Leben grundlegend verändern wird.
Der Begriff künstliche Intelligenz reiht sich ein in die lange Schlange von Schlagwörtern wie „Digitalisierung“ und „Industrie 4.0“. In den Marketingabteilungen wird das KI-Etikett großzügig aufgeklebt – selbst auf Dinge, die damit eigentlich nichts zu tun haben.
Was also ist der Kern von KI? In dieser Teildisziplin der Informatik versuchen Forscher, bisher dem Menschen vorbehaltene Fähigkeiten in Computern zu simulieren. Der Rechner soll z. B. menschliche Sprache verstehen und Entscheidungsprozesse auf den „gehörten“ Informationen aufbauen. Sprachassistenten à la Alexa und Siri funktionieren nur dank mehr oder weniger leistungsfähiger KI.
Das Konzept dazu tauchte bereits 1956 in der wissenschaftlichen Welt auf. Aber erst Entwicklungen der jüngsten Vergangenheit bringen intelligente Computer in Richtung Alltagstauglichkeit voran und inspirieren die Fantasie der KI-Protagonisten zu ungeahnten Höhenflügen.
Der enorme Zuwachs an günstiger Rechenleistung, sowohl in der Cloud, als auch mobil in Smartphone & Co. ist einer der Fortschrittstreiber. Hinzu kommt, dass heute so viele Daten auswertbar sind, wie nie zuvor. Produziert werden sie u. a. von Sensoren im Internet der Dinge und von Menschen in den sozialen Netzwerken.
Diese beiden Trends sind Wegbereiter für die sinnvolle Anwendung von Algorithmen, die in der KI-Forschung der letzten Jahrzehnte entwickelt wurden. Eine ausreichende Datenbasis ist z. B. Voraussetzung für die derzeit erfolgreichste Disziplin der KI: das maschinelle Lernen.
Dieser Lernvorgang sei ein sehr spröder Prozess und erfordere grundsätzlich eine Menge menschlicher Vorarbeiten, schreibt der KI-Experte und Roboterspezialist Rodney Brooks in seinem Internetessay „Die sieben Todsünden bei der Vorhersage der KI-Zukunft“. Es müssten die richtigen Algorithmen gewählt werden, die richtigen Trainingsdaten und für jedes Problem eine neue spezifische Lernstruktur entwickelt werden.
Anders sieht es bei der derzeitigen Königsdisziplin des maschinellen Lernens, dem Deep Learning, aus. Forscher erstellen dazu im Computerspeicher ein virtuelles Netz aus untereinander verknüpften Datenknoten. Diese können Informationen ähnlich verarbeiten wie unser Gehirn. Solche neuronalen Netze versuchen also, Lern- und Entscheidungsprozesse analog den Vorgängen im menschlichen Nervensystem nachzubilden (siehe hier).
Starke und schwache KI: Wie stark sich das Werkzeug KI bereits entwickelt hat, zeigen plakativ vermarktete Fortschritte bei Strategie- und Wissensspielen. Dabei kann der Computer in Teilbereichen den Menschen durchaus überflügeln: 1997 schlug Deep Blue von IBM Schachweltmeister Garri Kasparow, 2012 triumphierte IBMs Watson über die zwei besten Spieler der Gameshow Jeopardy und 2016 fiel mit Googles AlphaGo auch die Bastion des Go-Spiels an den Computerkonkurrenten.
Und dennoch sprechen Forscher bei Maschinenlernen und Deep Learning nur von „schwacher KI“. Eine KI, die im Wesentlichen dem Computer nutzt, um Intelligenz zu simulieren. Denn war Deep Blue wirklich intelligenter als sein menschlicher Konkurrent? Nein. Er war schlicht in der Lage, in Sekundenschnelle Millionen von Spielzügen mit ihren Konsequenzen durchzurechnen. Und auch der Gewinn des Go-Spiels war ein Kampf ungleicher Ressourcen. So hatte der menschliche Spieler Lee Sedol nur einige Tassen Kaffee zur Verfügung, während ihm gegenüber ein komplexes Rechnernetzwerk antrat, das von über 100 Computerspezialisten trainiert und gewartet wurde.
Mehr noch: Hätte man Sedol nach dem Spiel gebeten, ein Gedicht zu schreiben oder ein Lied zu singen, es wäre ihm prinzipiell möglich gewesen. AlphaGo hätte jedoch gar nicht erst verstanden, was von ihm erwartet wird. Denn anders als die menschliche Intelligenz, werden Maschinen bisher lediglich für eng begrenzte Aufgabenstellungen trainiert.
Damit intelligente Maschinen nicht nur nützliche Fachidioten bleiben, versuchen Forscher auch eine universelle Maschinenintelligenz zu entwickeln. Wissenschaftler wie Jürgen Schmidhuber. Er arbeitet am Schweizer KI-Labor Idsia und gilt als einer der Forscher, die der KI das Erinnern beigebracht haben. „Ich habe keinen Zweifel, dass KI schlauer wird, als wir es heute sind“, sagt Schmidhuber. Mit Kollegen arbeitet er bereits an einer Art künstlichem Bewusstsein.
Im Gegensatz zur schwachen KI, nennt man dies die „starke KI“. Forscher und Ingenieure streiten aber darüber, ob diese Art KI jemals realisiert werden wird. Nicht wenige sind da eher skeptisch. Der wirklich „intelligente“ Computer, der sich seiner Existenz bewusst ist, seine Umwelt begreift und aus eigenem Antrieb Neugier entwickelt, ist bisher eine Erfindung der Science Fiction.
Die KI und der Mensch: Vielen Menschen bereiten bereits die Erfolge der schwachen KI Sorgen. Sie fürchten, dass ihre Berufe in Zukunft obsolet werden und sie früher oder später durch Maschinen ersetzt werden. Befürchtungen, die von KI-Forschern durchaus ernst genommen werden. Da viele Entwicklungen hier aber noch ganz am Anfang stehen, werden die Auswirkungen erst in den kommenden Jahren realistisch einzuschätzen sein.
Erfahrungen mit der Einführung des PC oder der Dot-Com-Blase Anfang des Jahrtausends bestätigen die These von Silicon-Valley-Vordenker Ray Arma: „Wir tendieren dazu, den kurzfristigen Effekt von Technologien zu überschätzen und die Langzeitfolgen zu unterschätzen.“ Computer und das Internet sind aus dem Alltag kaum mehr wegzudenken.
Generell bleibt die Frage, welche Entscheidungsprozesse wir im täglichen Leben automatisieren wollen. Schon heute bestimmen Algorithmen, ob Bankkunden für kreditwürdig gehalten werden, oder entscheiden in den USA, ob Straftäter Bewährungsstrafen erhalten. Die Datenbasis auf der diese Algorithmen trainiert werden, ist für den Betroffenen nicht transparent. Oder sie ist mit rassistischen Vorurteilen belastet, so wie beim System „Compas“ zur Beurteilung der Rückfallgefahr von Straftätern in den USA.
Keine Frage: Das Potenzial von künstlicher Intelligenz als Effizienzwerkzeug ist groß. Was wir von KI in unserem Leben regeln lassen wollen, ist dabei in erster Linie keine technische sondern eine gesellschaftliche Fragestellung. Hier spielen auch moralische und ethische Überlegungen eine gewichtige Rolle.