Passwort vergessen?  | 
 |  Passwort vergessen?  | 
Suche
  • Login
  • Login

Donnerstag, 19. Oktober 2017, Ausgabe Nr. 42

Donnerstag, 19. Oktober 2017, Ausgabe Nr. 42

Maschinenethik

„Lügentechnik zerstört Vertrauen“

Von Wolfgang Schmitz | 15. September 2016 | Ausgabe 37

Mit seinem Lügenbot will der Technikethiker Oliver Bendel auf Gefahren manipulierender IT-Systeme hinweisen.

Bendel BU
Foto: privat

Der Wirtschaftsethiker Oliver Bendel: „Selbstlernende Systeme könnten etwas fundamental Falsches lernen und zu Killern und Zerstörern werden.“

VDI nachrichten: Sie haben einen Lügenbot ins Leben gerufen. Haben Forscher nichts Besseres zu tun, als Lügenmaschinen zu basteln?

Bendel (lacht): Langeweile haben wir als Wissenschaftler immer. Im Ernst: Wir sind auch Spielkinder. Die Idee einer Münchhausen-Maschine fasziniert mich schon seit Langem.

Forscher und Politikberater

Was fasziniert Sie daran?

Die Nase wächst wie bei Pinocchio

Dass Maschinen lügen können und wie sie es können. Wir wollen an der Fachhochschule Nordwestschweiz am Beispiel des Lügenbots zeigen, dass Münchhausen-Maschinen eine reale Gefahr darstellen.

Um welche Systeme handelt es sich?

Es geht um Maschinen und Dienste aller Art, von Wetterberichten bis zu News. Stark im Kommen sind Chatbots, also Dialogsysteme, die auf Websites automatisiert Produkte und Dienstleistungen erklären, sowie Social Bots, Programme, die in sozialen Medien vorgeben, Menschen zu sein, Daten von Nutzern abgreifen oder politische Parolen verbreiten. Social Bots stellen regelrechte Propagandaarmeen dar. Wir wissen um das Interesse an der Verbreitung von Lügen.

Worin besteht der Nutzen des Lügenbots?

Es gibt bereits Münchhausen-Maschinen. Wir wollen mit dem Lügenbot, der als Chatbot realisiert ist, zunächst auf ihre Existenz und ihre möglichen Strategien hinweisen. Kennt man diese, kann man ihnen effektiv begegnen. Entwickler können Wissensbasen schützen und externe Quellen kontrollieren. Mit moralisch verlässlichen Maschinen können Anbieter Vertrauen aufbauen. Die Benutzer werden wachsamer, indem sie etwa nach dem Anbieter fragen. Nicht zuletzt kann die Maschinenethik die Erkenntnisse für ihre Forschungen nutzen. Interessenten können den Lügenbot auf Nachfrage bei uns testen.

Wer könnte von Lügen profitieren?

Etwa die Tourismusbranche. Sie könnte falsche Temperaturen vortäuschen, statt der verkündeten 25 °C und Sonnenschein sind es tatsächlich 18 °C und Regen. Die Nahrungsmittelindustrie will uns weismachen, dass ein gesundes Frühstück sei, was in einem Schokoriegel steckt. Das kann sie mithilfe traditioneller Werbung oder mit Münchhausen-Maschinen, die ihre Lügen verschleiern oder an Benutzer anpassen können.

Stehen Wirtschaft und Gesellschaft einer riesigen Lügenindustrie gegenüber?

Nein, das wäre übertrieben. Die meisten Maschinen lügen nicht, weil sie bzw. ihre Betreiber akzeptiert sein wollen. Man will Vertrauen und Verlässlichkeit aufbauen. Dahinter stecken pragmatische und nicht moralische Gründe.

Die Praktiken bei VW haben aber doch gezeigt, dass bei den Großunternehmen mitunter Lügen und Vertuschungen gewünscht sind.

Ich möchte klarstellen, dass VW nicht repräsentativ für das Geschäftsgebaren ist und wir der Wirtschaft nicht generell schlechte Absichten unterstellen. Wenn eine Firma einen Chatbot betreibt, wird sie sich in der Regel um Wahrheit bemühen, oder um etwas, das der Wahrheit nahekommt. Die virtuellen Internetberater Leo von Schweppes und Anna von Ikea waren relativ verlässliche Geschöpfe. Wenn aber Social Bots programmiert werden, die die Meinung einer Community verbreiten sollen, sei es aus lobbyistischen, sei es aus propagandistischen Gründen, sind wir mitten im Schlamassel.

Lügt der Lügenbot immer oder nur, wenn es ihm passt?

Der Lügenbot lügt in 80 % der Fälle. Er zeigt das über seinen animierten Avatar an. Die Nase wächst oder der Lügenbot wird rot, damit Benutzer Anhaltspunkte haben. Wir wollten aus ihm keinen kategorischen Lügner machen. Unser Programmierer hat menschliche Strategien mit maschinellen ergänzt. Aus „Der Hase hat lange Ohren“ machte der Lügenbot „Der Igel hat lange Ohren“. Auf die Frage, wer US-Präsident sei, hat er mit „Donald Trump“ geantwortet.

Kann man beim Lügenbot von einem selbstlernenden System reden?

Eher nicht. Er kann nicht über die Benutzereingaben lernen, oder nur spärlich. Wir sehen in selbstlernenden Maschinen eine große Gefahr.

Wo lauern die größten Gefahren?

Vor allem bei selbstlernenden Maschinen, die sich in offenen Welten bewegen, weniger im Haushalt, im Garten, in der Landwirtschaft und der Fabrik. Selbstlernende Systeme könnten auf Straßen, in Einkaufszentren und sozialen Netzwerken jede Menge Unfug anrichten. Sie könnten etwas fundamental Falsches lernen und zu Killern und Zerstörern werden. Oder völlig unsinnige Entscheidungen treffen.

Maschinen werden heute schon von Maschinen hergestellt. Ist ein Eigenleben von Roboterpopulationen denkbar?

Dass die Roboter die Weltherrschaft ergreifen, halte ich für unrealistisch. Zumindest, wenn wir sie deckeln, also mit bestimmten Metaregeln versehen. Microsoft hat das bei seinem Chatbot Tay versäumt. Man musste ihn aus dem Verkehr ziehen, nachdem er Hitler für großartig befunden hatte. Wir müssen immer die Entscheidungen der Maschinen vorhersehen können.

Sie heben den Ethikfinger. Da müsste Sie doch die Erforschung selbstlernender Systeme reizen.

Ich bin Philosoph und Wirtschaftsinformatiker, ich kenne mich mit neuronalen Netzwerken nicht aus. Wir bauen das, was wir bauen können. Was die Gefährdung durch selbstlernende Autos betrifft, denkt man bei den Autobauern übrigens ähnlich. Sie wollen starr programmieren, um die Kontrolle über das Auto nicht völlig abzugeben.

Glauben Sie an die selbstregelnden Kräfte des Marktes oder muss mehr Staat her, um Auswüchse zu vermeiden?

Es gibt auf europäischer Ebene starke Regulierungstendenzen. Die Politiker sind nicht der Auffassung, dass die Probleme und Gefahren allein vom Markt gesteuert werden sollten.

Wie viel Marktfreiheit sollte gewährleistet sein?

Wir wollen in diesem Jahr noch einen Staubsauger zur Welt bringen, der Marienkäfer erkennt und dann das Saugen einstellt. Wenn ich für meinen Haushalt diese tierfreundliche Haushaltshilfe kaufen möchte, muss das meine Entscheidung bleiben. Der Staubsaugerroboter macht das, was ich eh gemacht hätte. Er multipliziert meine Entscheidung auf einem neuen technischen Niveau. Das finde ich völlig in Ordnung. In offenen Welten sieht das allerdings anders aus. Treffen verschiedene autonome Autos unterschiedliche Entscheidungen, muss jemand kontrollierend und regulierend eingreifen.

Sind entsprechende Kontrollgremien von der Politik geplant?

Bundesverkehrsminister Alexander Dobrindt richtet derzeit eine Ethikkommission ein, die Algorithmen für autonome Autos entwickeln oder zumindest bewerten soll. Das ist ein nicht zu unterschätzender Eingriff. Dobrindt reguliert damit nicht nur die deutsche Autoindustrie, sondern nimmt Einfluss auf die globale Autowelt. Schließlich sind Daimler und Co. weltweit unterwegs. Ein deutscher Politiker wird somit zum Treiber und Kontrolleur einer neuen Technologie.

Wie ist die Kommission zusammengesetzt und wie sollte sie Ihrer Meinung nach zusammengesetzt sein?

Mir ist nur bekannt, dass ihr ein ehemaliger Richter vorsitzt. In Deutschland sind Ethikkommissionen leider kaum von philosophischen Ethikern geprägt. Es gibt Ethikkommissionen fast ohne Ethiker. Man hört auf Mediziner, Juristen und relativ viele Theologen. Ich glaube nicht, dass Theologen die Probleme der Künstlichen Intelligenz lösen können. Es braucht neben Fachleuten aus der Technik philosophische Ethiker, Technikphilosophen und Vertreter aus Soziologie und Psychologie. Auch der deutsche Ethikrat, der historisch bedingt vor allem medizin- und bioethische Themen beurteilt, ist solchen Herausforderungen wie Big Data oder Kooperationsrobotern, die in Automobilwerken eingesetzt werden, nicht gewachsen. Ich weiß nicht, wie Dobrindt die Ethikkommission aufstellt, ich bin aber nicht besonders optimistisch, was meine Wünsche angeht.

Warum wird Soziologen und Philosophen so wenig Gehör geschenkt?

In Deutschland neigt man dazu, bestimmte Disziplinen zu trivialisieren und in eine bestimmte Ecke zu rücken. Philosophische Ethiker sind entgegen der weit verbreiteten Meinung nicht moralistisch unterwegs, sondern genauso auf wissenschaftlicher Ebene wie andere Disziplinen.

stellenangebote

mehr