Künstliche Intelligenz

Die Fähigkeiten werden überschätzt

04:24 Minuten
Dreidimensionale Illustration von zwei Köpfen die eng aneinander auf einem blauen Hintergrund liegen
Die Zuschreibung von Intelligenz und allgemeine Anthropomorphisierung von Technologie findet ausschließlich durch uns als Gesellschaft statt, meint der Informatiker Sebastian Henningsen. © Gettyimages / iStockphoto / Eoneren
Ein Kommentar von Sebastian Henningsen · 16.10.2020
Audio herunterladen
Wir sprechen inzwischen ganz selbstverständlich mit unserem Smartphone, Alexa oder Siri. Sie geben Antworten auf unsere Fragen und wirken dabei immer intelligenter. Der Informatiker Sebastian Henningsen warnt jedoch davor, sie zu vermenschlichen.
Kennen Sie das? Sie möchten gerne mit einem Therapeuten oder einer Therapeutin sprechen, aber statt eines Menschen bekommen Sie nur ein Computer-Programm zum Reden zugewiesen? - Wahrscheinlich nicht. Doch 1966 wurde genau das von manchen Psychotherapeuten als die automatisierte Zukunft ihrer Zunft gesehen: Interaktion mit Computern anstelle von Menschen.
Auslöser dieser Sichtweise war Joseph Weizenbaums Publikation von ELIZA, dem ersten Chatbot - also einem rein technischen Kommunikationspartner -, in dem ein Therapiegespräch mit einem Menschen simuliert wurde. Weizenbaum wollte mit ELIZA das Potenzial natürlicher Sprache, anstelle der sonst üblichen Textbefehle, in der Mensch-Maschine-Interaktion unterstreichen.
Mit Erfolg und mit Nebenfolgen. Erstaunlicherweise fand dabei nämlich eine Vermenschlichung des Chatbots statt, die soweit ging, dass Weizenbaums Sekretärin ihn bat den Raum zu verlassen, wenn sie mit ELIZA kommunizierte. Diese Reaktionen machten aus dem Informatiker und Philosophen, einen prominenten Kritiker der Technikgläubigkeit.
Er schrieb dazu: "Diese Reaktionen auf ELIZA haben mir deutlicher als alles andere bis dahin Erlebte gezeigt, welch enorm übertriebenen Eigenschaften selbst ein gebildetes Publikum einer Technologie zuschreiben kann oder sogar will, von der es nichts versteht."

Künstliche Intelligenz schreibt schon Essays

Das ist 50 Jahre her und inzwischen sind wir weiter? Ja und nein. Das zeigt sich ganz aktuell am Beispiel von GPT-3, dem vor wenigen Wochen vorgestellten State-of-the-Art-Sprachgenerator. Die Grundlage von GPT-3 sind 570 Gigabyte an Text aus Büchern, Publikationen, Webseiten sowie der kompletten Wikipedia. Über diesen Fundus spannt man ein künstliches neuronales Netz, das dem resultierenden Modell ermöglicht, aus einer kurzen Eingabe aus Wörtern oder Sätzen, überraschend zusammenhängende und kohärent wirkende Texte zu erzeugen.
Durch die Eingabeworte wird der Kontext gesetzt, in dem GPT-3 seine Texte generiert. So kann es Gedichte von Shakespeare weiterschreiben, Blog-Einträge verfassen und sogar kurze Essays schreiben. Ein solcher wurde unlängst im britischen "Guardian" veröffentlicht. Sein Titel "Artificial intelligence will not destroy humans. Believe me" – "Künstliche Intelligenz wird die Menschheit nicht vernichten. Glaubt mir".
Dazu wurden GPT-3 lediglich der Titel sowie der erste Absatz vorgegeben. Anschließend schuf es acht Essays, die zusammengeschnitten den letztendlich publizierten Artikel ergaben.

Künstliche Intelligenz basiert auf Trainingsdaten

Das illustriert einen zentralen Punkt: Systeme wie GPT-3 sind Werkzeuge, die Menschen unterstützen, aber nicht ersetzen können. Denn anders als vom "Guardian" (vielfach kritisiert) dargestellt, hat GPT-3 weniger mit einer menschlichen Autorin gemeinsam als mit der Wortvorschlagfunktion eines Smartphones beim Verfassen von Textnachrichten: Einer Eingabe folgend werden die Worte vorgeschlagen, die, gemäß der Trainingsdaten, am wahrscheinlichsten auf die Eingabe folgen.
Dabei kombiniert es auf einer strukturellen Ebene lediglich das, was es in seinen Trainingsdaten bei menschlichen Autorinnen und Autoren "gelesen" hat, ohne jegliches Verständnis auf einer inhaltlichen Ebene.

KI-Werkzeuge funktionieren nur eingeschränkt

Ähnlich zu anderen Werkzeugen wie Kleidung, Autos und Computern haben auch vermeintlich immaterielle Werkzeuge wie neuronale Netzwerke sehr materielle Voraussetzungen in ihrer Herstellung.
Zum einen in der Aufbereitung der Trainingsdaten, ein notwendiger Bestandteil neuronaler Netzwerke, die, in der Regel, durch schlecht bezahlte Clickworker oder kostenlos durch uns alle beim Ausfüllen von Captchas stattfindet. Zum anderen durch den massiven Hardware- und Energieaufwand, der zum Trainieren der Systeme benötigt wird.
Wir sollten daher Technologien wie GPT-3 als das sehen, was sie sind: Werkzeuge mit Potenzialen und Grenzen, deren Einsatz wir je nach Situation abwägen müssen. Die Zuschreibung von Intelligenz und allgemeine Anthropomorphisierung von Technologie findet ausschließlich durch uns als Gesellschaft statt und versperrt den Blick auf das Wesentliche.

Sebastian Henningsen, geb. 1990 in Hannover. Er hat Informatik in Kaiserslautern, Kopenhagen und Warwick studiert. Henningsen ist Doktorand an der Humboldt-Universität zu Berlin sowie wissenschaftlicher Mitarbeiter am Weizenbaum-Institut für die vernetzte Gesellschaft. In einem interdisziplinären Team forscht er zur Sicherheit von Peer-to-Peer-Netzwerken, u.a. im Kontext von "Blockchain"-Systemen.

© Julia Delin
Mehr zum Thema