Diskussion um Künstliche Intelligenz

11. April 2019|In BIG Data|By Lukas Mreyen

Darf eine KI schummeln?

In einem Vortrag vor der Enquete-Kommission Künstliche Intelligenz des Bundestags hat ein Forscher auf ein mögliches Problem bei den Algorithmen für KI hingewiesen und damit eine Diskussion über die Arbeitsweise von KI ausgelöst.

Gegenüber den Abgeordneten forderte Klaus-Robert Müller, Professor für Maschinelles Lernen an der Technischen Universität Berlin, eine gründlichere Untersuchung gängiger KI-Systeme, da er bei seinen Untersuchungen verschiedener Modelle bei 50 Prozent  sogenannte „Clever Hans-Strategien“ feststellen musste. Als Gegenmaßnahme müsse vermehrt auf explainable AI (erklärbaren KI) gesetzt werden und in die Arbeit auf diesem Gebiet investiert werden.

Auf dem Prüftisch.

In einer Kooperation mit der Singapore University of Technology and Design und dem Heinrich-Hertz-Institut (HHI) der Fraunhofer-Gesellschaft hatte Müller das ganze Spektrum bestehender KI-Lösungen mit einem automatisierten Verfahren untersucht. Die jetzt publizierten Ergebnisse zeigen laut der Untersuchung auf, dass auch in modernsten Modellen häufig nicht eine aus der Sicht des Menschen logische Lösung gefunden wurde, sondern sich eines Algorithmus bedient wurde, der gewissermaßen schummelt.

Bei Bildanalysen stütze sich die KI zur Erkennung von Bildinhalten teilweise auf Artefakte, welche bei der Vorbereitung der Bilder entstanden, aber nichts mit dem Bildinhalt zu tun hatten. Oder Bilder wurden anhand des Kontexts analysiert. Eine Bilderkennungssoftware ordnete Bilder sehr erfolgreich der Kategorie Schiff zu, wenn sie viel Wasser auf dem Bild erkannte. Das eigentliche Ziel der Software, ein Schiff zu erkennen hatte sie, trotz einer hohen Erfolgsquote, nicht erreicht.

Diese Strategien der KI-Systeme nennt Dr. Wojciech Samek, Gruppenleiter am Fraunhofer HHI „Clever Hans-Strategien“. Dabei handelte es sich um ein Pferd, welches zum Zählen und zur Lösung einfacher Rechenaufgaben befähigt gewesen sein soll. Die sensationelle Erfolgsquote von 90 Prozent  stellte sich jedoch als Betrug heraus. Das Pferd leitete sich die richtigen Ergebnisse aus dem Gesichtsausdruck seines Besitzers und den Reaktionen des Fragestellers ab.

"Wenn die KI der Menschlichen zu sehr gleicht, ist der Aufschrei groß!"

Akzeptanz oder Toleranz.

Bezug nehmend auf diese Vorgehensweise der KI sagte Müller: “Ich möchte so nicht im Gebiet der medizinischen Diagnostik behandelt werden” und forderte einen sorgfältigeren Umgang mit KI. Es würden Millionen von Datensätzen analysiert, aber der Mensch würde sich nicht mehr ausreichend mit der Analyse beschäftigen. Dabei sei es nicht richtig, die Algorithmen wie eine Blackbox zu behandeln, gerade bei der Bilderkennung seien die Modelle gut bekannt. Man müsse nur mehr Geld in die Entwicklung und Erforschung von erklärbarer KI investieren, da es sonst in Bereichen wie der medizinischen Diagnostik oder sicherheitskritischen Systemen fatal sein könne auf KI mit unsicheren oder undurchsichtigen Problemlösungsstrategien zu setzen.

Doch es gibt auch Gegenstimmen, welche die Vorgehensweise der KI nicht für problematisch halten, sondern sie positiv bewerten, da sie Ressourcen und Arbeitsaufwand einsparten und dennoch die gewünschten Ergebnisse erreichen. Vielmehr müsse man eben bei der Zielbeschreibung sorgfältig vorgehen, da die Problemlösungen der KI-Systeme meistens unbedenklich seien, solange man sich bewusst mache was man erreichen wolle.