Unabhängiges Magazin für Wirtschaft und Bildung

20. April 2024

Search form

Search form

Der rassistische Roboter

Der rassistische Roboter(C) wikipedia.org

Nach dem rassistischen Ausraster eines Chatbots von Microsoft, wird erforscht, ob Künstliche Intelligenzen zu Rassismus neigen.

Google testet mit Forschern der Universitäten Chicago, Sheffield und der University of the West of England, ob Künstliche Intelligenz (KI) durch den Lernprozess plötzlich zu einseitigen und diskriminierenden Entscheidungen tendieren kann. Im letzten Jahr sorgten die Entgleisungen des Chatbots Tay von Microsoft für Negativschlagzeilen.
"Entscheidungen, die auf maschinellem Lernen basieren, können sowohl nützlich sein als auch einen großen Einfluss auf unser Leben haben", so Google-Forscher Moritz Hardt. Aus diesem Grund sei es immer wichtiger zu wissen, ob manche Maschinen womöglich diskriminierende Entscheidungen treffen und ob KI überhaupt feinfühlige Eigenschaften gegeben sind. Der Test soll mit KIs durchgeführt werden, die lernen, Vorhersagen über die Zukunft zu machen, indem sie eine breite Masse von Daten analysieren.

Aussichtslos
"Auch wenn wir Zugang zu den Details von Algorithmen haben, sind diese so kompliziert, dass es fast aussichtslos ist, diese zu durchforsten", erklärt Nathan Sebro von der University of Chicago. Im März hatte Microsoft Probleme mit Tay, der aus der Vielzahl seiner erhaltenen Nachrichten gelernt hatte, ein Rassist zu sein. Deshalb musste er einer Überarbeitung unterzogen werden.
"Maschinelles Lernen ist großartig, wenn wir es nutzen, um die beste Route für eine neue Öl-Pipeline zusammenzustellen. Bis wir jedoch genau wissen, wie einseitige Neigungen in der KI wirken, wäre ich sehr besorgt darüber, sie Entscheidungen treffen zu lassen, die direkte Auswirkungen auf das Leben von Menschen haben", betont Noel Sharkey von der University of Sheffield.

Links

Pressetext Austria/red/stem, Economy Ausgabe Webartikel, 30.01.2017