Künstliche Intelligenz

Microsoft blamiert sich mit Chat-Roboter "Tay"

"Tay" auf Twitter
Gestörte Kommunikation: Microsofts Chat-Roboter "Tay" auf Twitter © Screenshot: Twitter
Andreas Dengel im Gespräch mit Christine Watty · 06.04.2016
Microsofts Chat-Roboter "Tay", eine lernfähige Maschine, sollte durch das Kommunizieren mit Menschen auf dem Kurznachrichtendienst Twitter immer klüger werden. Doch der Plan ging ordentlich schief, "Tay" wurde immer dümmer - und gab rassistische und antifeministische Propaganda von sich. Sind Bots noch zu doof?
Innerhalb von Stunden kippte sie – gefüttert mit rassistischem Vokabular von Usern – ins Extreme mit gehässigster rassistischer und antifeministischer Propaganda. Was ist das für ein Vorgang, bei dem sich Mensch und Maschine derart radikalisieren?
Sind Roboter, oder kurz Bots, (noch) zu doof? Und wo liegen die Gefahren oder Grenzen der neuen Technologien? Darüber spricht Andreas Dengel, Standortleiter des Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI) in Kaiserslautern und Wissenschaftlicher Direktor des Forschungsbereichs Wissensmanagement, im Interview.
Mehr zum Thema