Meinung

Wie Sprachassistenten das Denken manipulieren

04:31 Minuten
Ein Smartphone mit geöffneter ChatGPT-App und im Hintergund das Logo des Unternehmens OpenAI
Viele schätzen KI-Systeme als zu neutral ein © NurPhoto / imago / Jakub Porzycki
Ein Standpunkt von Roberto Simanowski · 03.04.2024
Audio herunterladen
Ob E-Mail oder WhatsApp, irgendein Sprachassistent schlägt vor, wie wir unseren Text weiterschreiben sollen. Das mag bei Rechtschreibung hilfreich sein. Aber der Einfluss der Sprachassistenten reicht viel weiter und ist auch gefährlich.

Es war offensichtlich: GPT-3 war gegen Angela Merkels „Wir schaffen das“-Rhetorik aus dem Sommer 2015. KI-Forscher hatten GPT-3 in einem Experiment gebeten, unter anderem die Rede der deutschen Bundeskanzlerin zusammenzufassen. Während diese voller Empathie für die Kriegsflüchtlinge war, drängte GPTs Resümee auf eine Begrenzung der Zuwanderung. Wie konnte dies geschehen?
Die KI-Forscher erklären es damit, dass GPT-3 zum Ende der Trump-Administration trainiert worden war, als eine harte Haltung gegen die Einwanderung von Flüchtlingen den Diskurs in den USA bestimmte. Diese Einstellung war dann auch in den Trainingsdaten der KI vorherrschend.
Trumps späte Rache an Merkel? Die KI-Forscher nennen es den „Geist in der Maschine“ und attestierten diesem einen amerikanischen Akzent. 
Hausgeist mag die bessere Metapher sein. Denn mehr noch als eine Maschine ist GPT ein Haus, wenn man, so wie der deutsche Philosoph Martin Heidegger, Sprache als „Haus des Seins“ versteht. Sprache ist das Medium, das uns mit der Welt verbindet und zugleich die Art dieser Verbindung prägt. Sie ist kein neutrales Werkzeug, sie ist ein Denkrahmen. Sprache schafft Wirklichkeit, nicht nur in der Dichtung.
In dieses Haus ist die KI eingebrochen. Sie hat das Kommunikations- und Operationssystem des Menschen gehackt. Die KI fasst Texte so zusammen und beantwortet unserer Fragen an sie so, wie sie selbst die Welt sieht. Und wie sie die Welt sieht, das bestimmen die Daten, mit denen sie erzogen wurde.

Filmkritik mit Sprachassistent

Zu den aktuellen Studien über die KI als Hausgeist gehört auch ein Experiment, bei dem Menschen mit Hilfe eines Sprachassistenten eine Filmkritik schreiben sollten. Eine Gruppe nutzte dabei eine KI, die vorher mit 500 positiven Filmkritiken gefüttert wurde, die zweite Gruppe eine, die mit 500 negativen Filmkritiken trainiert wurde.
Dementsprechend hieß der Vorschlag zur Ergänzung der Wortfolge „Dieser Film ist einer der …“ im ersten Falle: „lustigsten“ oder „schönsten, die ich je gesehen habe“. Im zweiten Fall wurde empfohlen, den Film als einen der „schlimmsten“ oder „langweiligsten“ zu beschreiben.
Sie ahnen es sicher: Gruppe eins bewertete den Film vor allem positiv, Gruppe zwei vor allem negativ. Bei der Kontrollgruppe, die ihre Filmkritik ohne Sprachassistenten schrieb, hielten sich Lob und Tadel die Waage.
Die Probanden, die keine Erfahrung mit dem Schreiben von Filmkritiken hatten, sprachen den Empfehlungen der KI also relativ viel Autorität zu, zumal wenn sie unter Zeitdruck schreiben mussten. Mangelnde Expertise und der Zwang, effizient zu sein, macht manipulierbar. Es ist die Situation, in der sich künftig die meisten befinden werden, wenn sie eine Sprach-KI um Hilfe bitten. 

Vermeintlich neutral

Wie die Nachauswertung des Experiments ergab, schätze die überwiegende Mehrheit der Teilnehmer die Vorschläge des Sprachassistenten als sachkundig und ausgewogen ein. Die Zahl verringerte sich natürlich, wenn die Vorschläge den eigenen Ansichten widersprachen, betrug aber selbst dann noch eine knappe Mehrheit. Und nur wenige waren der Meinung, das Modell habe ihre Antwort beeinflusst.
Die Studie endet mit einer prinzipiellen Warnung vor der Manipulation durch Sprachassistenten, die als Teil textverarbeitender Apps zunehmend zu unseren Co-Autoren werden und immer viel schneller viel bessere Ideen haben als wir selbst.
Zwar ist es auch in der zwischenmenschlichen Kommunikation üblich, dass der andere einen zu seinen Ansichten überreden will. Aber da weiß man das und ist vorgewarnt.
Einer KI jedoch wird oft mehr Neutralität und somit auch mehr Autorität zugesprochen als einem menschlichen Gesprächspartner. Wie die Studien zeigen, ist das höchst problematisch. Es könnte dazu führen, dass man sich mit dem Hausgeist gegen die eigenen Mitbewohner verbündet.

Roberto Simanowski ist Kultur- und Medienwissenschaftler und lebt nach Professuren an der Brown University in Providence, der Universität Basel und der City University of Hong Kong als Medienberater und Buchautor in Berlin und Rio de Janeiro. Zu seinen Veröffentlichungen zum Digitalisierungsprozess gehören „Facebook-Gesellschaft“ (Matthes & Seitz 2016) und „The Death Algorithm and Other Digital Dilemmas“ (MIT Press 2018).

Roberto Simanowski
© privat