Passwort vergessen?  | 
 |  Passwort vergessen?  | 
Suche
  • Login
  • Login

Mittwoch, 13. Dezember 2017

Informationstechnik

Künstliche Intelligenz ist oft nur alter Wein in neuen Schläuchen

Von Harald Weiss | 25. Mai 2017 | Ausgabe 21

Die Künstliche Intelligenz (KI) erlebt derzeit einen Hype und weckt zugleich Befürchtungen. Doch ein Blick hinter die Softwarekulissen zeigt, dass KI keine schwarze Magie ist.

KI BU
Foto: panthermedia.net/Kittipong Jirasukhanot

Künstliche Intelligenz: Viele Algorithmen sind schon Jahrzehnte bekannt. Doch sie kamen mangels Rechenleistung bisher kaum zum Einsatz.

Künstliche Intelligenz (KI) hat sich zu einem echten Hype entwickelt. Nicht nur innerhalb der IT-Welt ist alles mehr oder minder künstlich intelligent, sondern auch viele Unternehmen rühmen sich damit, ihre Geschäftsprozesse mit immer mehr KI auszustatten. So berichtet der Finanznachrichtendienst Bloomberg, dass 2013 nur sechs Firmen in ihren Geschäftsberichten KI erwähnten, im ersten Quartal 2017 waren es bereits 244. „KI boomt, doch die Erwartungen sind weit weg von jeder Realität“, sagt Oren Etzioni, CEO des AI2-Instituts für Künstliche Intelligenz. Befürchtungen, KI werde den Menschen künftig vielfach überflüssig machen, stehen dem Hype entgegen.

Ureigene menschliche Fähigkeiten werden immer häufiger von KI-Systemen übernommen. Computer, die Schach- und Go-Weltmeister besiegen, Quizshows gewinnen und neuerdings auch beim Poker abräumen, sind eindrucksvoll, schüren aber auch Ängste. Dabei ist die KI-Technologie alles andere als neu oder gar „schwarze Magie“.

Schon in den 1950er-Jahren arbeitete man an entsprechenden Algorithmen. Vieles von dem, was heute als bahnbrechende neue KI-Lösung proklamiert wird, baut auf diesen Algorithmen auf, die aber so viel Rechenleistung verlangen, dass sie früher kaum zum Einsatz kamen. Heute ist das dagegen problemlos möglich. Selbst in den Cloud-Plattformen stehen heute viele KI-Werkzeuge zur Verfügung. Diese lassen sich mit individuellen Programmen ergänzen und so entstehen in kürzester Zeit komplette KI-Lösungen.

Das größte Misstrauen gegenüber KI betrifft das Maschinenlernen (ML). Hier verändert sich die Software automatisch, sobald sie neue Daten erhält. ML funktioniert ähnlich wie Data-Mining. Auch bei ML wird in einem Datenbestand nach strukturellen Mustern gesucht, um damit die Programmfunktionen anzupassen. Hierbei unterscheidet man zwischen überwachten und unbewachten Lernprozessen. Der überwachte Algorithmus lernt, wie er aus den Eingabedaten korrekte Ausgabedaten generieren kann. Dafür wird er von einem „Lehrer“ so lange korrigiert, bis die Ausgabekorrelation ausreichend genau ist. Bei den unbewachten Algorithmen wird aus den Eingabedaten ein Modell generiert, das eigenständig Prognosen und Entscheidungen generiert.

Der Newsfeed bei Facebook nutzt beispielsweise ML, um für jedes Mitglied eine individuelle Anzeige zu schaffen. Wenn ein Nutzer beim Scrollen ein Posting liest oder auf den „Like-Button“ klickt, werden automatisch weitere gleichartige Postings angezeigt. Hört der Nutzer auf, die entsprechenden Kommentare zu lesen oder zu liken, werden die Daten und der Newsfeed entsprechend angepasst. Softwareseitig verbergen sich dahinter statistische Verfahren, die aus der Mustererkennung, der Datenanalyse und Datenprognose schon lange bekannt sind. Stephen Brobst, Cheftechnologe beim KI-Spezialanbieter Teradata, kritisiert: „Nicht überall, wo KI draufsteht, ist auch KI drin.“ Am häufigsten kämen nach wie vor klassische statistische Verfahren zum Einsatz. „Das kann man aber nicht zugeben, denn das wäre ja altmodisch.“

Das Facebook-Beispiel zeigt auch einen anderen aktuellen KI-Trend: die deutliche Trennung von Algorithmen und Benutzeroberfläche. Genauso wie beim Newsfeed sind auch bei den professionellen KI-Anwendungen die Kernelemente schon lange bekannt. Neu sind die jeweiligen Oberflächen, auf denen die Ergebnisse präsentiert werden. Knapp gesagt: Strukturell sind die KI-Techniken bei der Betrugserkennung im Finanzwesen kaum anders geartet als bei der vorausschauenden Wartung von Maschinen oder Fahrzeugen. Stets wird nach Anomalien in großen Datenmengen gesucht, um daraus vordefinierte Schlussfolgerungen zu ziehen.

Beispielhaft zeigt sich das an den Systemen des Analytikspezialisten Splunk. Ursprünglich wurden damit die Ereignisprotokolle von Computern ausgewertet. Diese bestehen aus Datenpaaren mit Zeitstempel und Ereigniscode. Bei einem Störfall werden Millionen solcher Einträge in sehr kurzer Zeit generiert. Splunks erste maschinelle Auswertungslösungen wurden sukzessive zu einer leistungsstarken Plattform mit KI-Elementen ausgebaut: Betrugserkennung, Verfügbarkeitsprognosen, Sicherheitsrisiken, Inventurvorhersagen und Bedarfsanalysen gehören heute zum Standardangebot. Datenstrukturen und Algorithmen sind dabei ähnlich, die Unterschiede liegen in der Nutzerschnittstelle, wo die Analyseergebnisse in die jeweiligen Fachbegriffe übersetzt werden.

stellenangebote

mehr