Passwort vergessen?  | 
 |  Passwort vergessen?  | 
Suche
  • Login
  • Login

Dienstag, 12. Dezember 2017

Technikfolgen

„Das gehört gesellschaftlich diskutiert“

Von Heike Freimann | 7. Dezember 2017 | Ausgabe 49

Künstliche Intelligenz wirft neue ethische Fragen auf. Das treibt auch Wissenschaftler in Deutschland um.

KI und Kultur (2)
Foto: Corbis/Getty Images

Mensch kontra intelligente Maschine: Die Gesellschaft muss die Regeln im Umgang miteinander festlegen, fordern Wissenschaftler. Doch die sei auf die kommenden Umwälzungen noch nicht vorbereitet.

An der TU Kaiserslautern im neuen Forschungsklassenzimmer arbeitet Andreas Dengel mit Testschülern mittels Eyetracker am intelligenten Schulbuch der Zukunft. „Wir wollen das Lernen besser verstehen“, erklärt der Professor für Wissensbasierte Systeme an der TU Kaiserslautern und Wissenschaftlicher Direktor des Deutschen Forschungszentrums für Künstliche Intelligenz.

Buchtipps zum Thema KI

Dengel ist sich bewusst: „Mit moderner KI kann man auch ein Überwachungssystem realisieren.“ In China gebe es heute Schulen, in denen intelligente Kameras jede Unaufmerksamkeit eines Schülers registrieren und Berichte für die Eltern erstellen. Informatikstudierenden versuche er deshalb eine kritische Grundhaltung zu vermitteln. „Man muss bewusst machen, dass das, was man entwickelt, in den falschen Händen auch missbraucht werden kann.“

Die kaum gezügelte Dynamik von neuen Entwicklungen aus Daten und maschinellem Lernen betrachtet der Forscher nicht nur positiv. Gerade hat das kanadische Start-up Lyrebird anhand synthetischer KI-Stimmen von Trump und Obama demonstriert, dass ihre Software in der Lage ist, menschliche Stimmen zu imitieren. Das öffne nicht nur betrügerischen Anrufen Tür und Tor. Man könne über Medien damit auch eine ganz neue Qualität von Fake Content generieren. „Da entwickeln sich Dinge, die grundlegende Regeln unseres gesellschaftlichen Verhaltens verletzen.“

Um hier gegenzusteuern, brauche es klare Regeln und weltweite Initiativen, die auch Strafverfolgung ermöglichen. „Das Internet macht an den Grenzen der EU nicht halt.“ Und es müsse geklärt werden, wer die Souveränität über welche Daten hat, fordert Dengel.

Für den Wissenschaftler steht fest: „Daten, die meine Identität, meine Persönlichkeit, meine Gesundheit betreffen, müssen für mich zugänglich sein, und sofern kein konkretes Verdachtsmoment vorliegt, muss ich in der Lage sein, sie zu löschen.“

Raul Rojas hat eine Vision: Eines Tages werden statt der 1,3 Mio. Pkw nur noch 100 000 autonome Taxis durch Berlin rollen. Staus und Unfälle ausgeschlossen. An Bord kein intelligenter, aber ein „schlauer“ Computer, stellt der Professor für Künstliche Intelligenz am Dahlem Center for Machine Learning and Robotics der FU Berlin klar. Sein Forscherteam hat selbst schon drei autonome Fahrzeuge entwickelt. „Das menschliche Leistungsniveau haben sie noch nicht erreicht.“

Für den umtriebigen Experten für künstliche neuronale Netze steht dabei fest: „Man sollte nicht alles computerisieren, bloß weil man es kann.“ Was ethisch vertretbar sei, entscheide die Gesellschaft. Dazu brauche es mehr Aufklärung und digitale Bildung. „Die Gesellschaft ist auf die Umwälzungen heute nicht vorbereitet“, urteilt Rojas.

Der Vormarsch von Digitalisierung und Künstlicher Intelligenz in allen Wirtschaftsbereichen verlange dringend neue Konzepte zur Verteilung der Arbeit, fordert der Professor. Im globalisierten Wettbewerb gehe es auch um globale Lösungen.

Zu Rojas Zukunftsszenario gehört der Einsatz künstlicher neuronaler Netze, also lernender Systeme, deren Entscheidungen sich nicht erklären lassen. „Es kommt dabei auf den Anwendungsfall an und ob ich eine statistische Garantie akzeptieren kann“, so Rojas.

Beispiel Qualitätskontrolle in einer Lampenfabrik: Wenn ein kamerabasiertes Überwachungssystem lerne, fehlerhaft und fehlerlos produzierte Lampen zu unterscheiden und am Ende statistisch bei 1 Mio. Lampen vielleicht noch 10 Fehlentscheidungen fälle, sei das ein akzeptables Ergebnis. „Dann brauche ich keine Erklärung vom Computer, wie er das gelernt hat.“ In sicherheitskritischen Bereichen wie einem Kernkraftwerk sei der Einsatz solcher Systeme dagegen zu riskant.

Für Rojas ist auch eine ethische Grenze erreicht, wenn es um Leben und Tod geht. „Bei Waffen oder in der Medizin sollte keine Maschine den Menschen die Verantwortung abnehmen.“ Daneben gebe es Bereiche wie die medizinische Pflege, in denen echte menschliche Intelligenz und vor allem Empathie erforderlich seien. „Da sind wir weit davon entfernt, dass Maschinen das haben.“

Als Professorin für Graphentheorie und Analyse ist Katharina Zweig in der theoretischen Informatik zuhause. Um die Wirkungen von Algorithmen in der Praxis besser zu verstehen, bittet die Professorin an der TU Kaiserslautern auch schon mal Bürger um eine Datenspende. So konnte sie zusammen mit der von ihr mitgegründeten Initiative Algorithm Watch und der Landesmedienanstalt Rheinland-Pfalz vor der Bundestagswahl den Umgang von Suchmaschinen mit Namen von Politikern und Parteien erforschen. Grundsätzlich geht die Wissenschaftlerin davon aus, dass in Suchmaschinen heute Algorithmen des maschinellen Lernens beteiligt sind – „Ich würde die Suchmaschine als intelligent bezeichnen.“

Doch das Ergebnis: Verschiedene Suchmaschinen hätten hier kaum Personalisierungseffekte gezeigt und die meisten Nutzer zu sehr ähnlichen Suchergebnissen geführt. „Der berühmte Filterblaseneffekt, nachdem wir alle in unseren eigenen Informationsblasen leben, war auf wenige Links beschränkt“, so Zweig. Eine Einflussnahme auf die politische Meinungsbildung damit auch.

Die Professorin weiß aber: Vielfach lassen sich Algorithmen oder algorithmische Entscheidungssysteme, die Lebensläufe von Jobbewerbern, die Kreditwürdigkeit von Käufern oder potenzielle Gefahrenlagen bewerten, kaum von außen einsehen oder testen. Solche Entscheidungssysteme könnten Personengruppen benachteiligen, wenn das dahinterliegende Regelwerk nicht diskriminierungsfrei sei. Sie plädiert deshalb für eine Möglichkeit, Firmen bei genügend hohem Verdachtsmoment auf unlauteres Verhalten auf den Zahn zu fühlen. „Da gibt es ja auch das Vorbild der Wirtschaftsprüfer, die ebenfalls Einblick in sensible Firmendaten haben.“ Grundsätzlich müsse eine Ethik immer abwägen, welche Eingriffstiefe angemessen und erforderlich ist.

„Wir bekommen eine ganz neue Relation zwischen Mensch und Technik“, glaubt Armin Grunwald. Als Mitglied der Ethikkommission für automatisiertes Fahren hat der Leiter des Instituts für Technikfolgenabschätzung am Karlsruher KIT und Leiter des Büros für Technikfolgenabschätzung beim Deutschen Bundestag dem damaligen Bundesverkehrsminister Alexander Dobrindt im Sommer 20 ethische Regeln vorgelegt. „Wir haben die Themen kanalisiert, das war ein erster Schritt in einem Prozess, der weiter nach vorne geht“, so Grunwald. Für den Physiker und Technikphilosophen ein Modell, auch die großen Grundsatzfragen der Digitalisierung – von Industrie 4.0 bis zum intelligenten Chatbot – anzugehen. „Wer sollte beispielsweise wann welche Kontrolle haben?“ Eine neue Bundesregierung müsse das Thema schnell angehen. „Es braucht einen Ort für diesen Typ von Fragen. Das gehört gesellschaftlich sichtbar diskutiert.“ 

stellenangebote

mehr