Künstliche Intelligenz und Medien

Journalisten von banalen Aufgaben entlasten

14:00 Minuten
Ein Journalist sitz in einer Redaktion und schaut auf einen Computer. Im Hintergrund sind Bildschirme zu sehen.
Neue Möglichkeiten: Damit künstliche Intelligenz auch im Journalismus erfolgreich sein kann, bedarf es in den Redaktionen ein Umdenken. © Imago / TASS / Alexander Shcherbak
Von Jenny Genzmer und Dennis Kogel |
Audio herunterladen
Künstliche Intelligenz kann Medienmacher bei ihrer Arbeit unterstützen. Doch dies erfordert ein Bewusstsein, das in erster Linie nichts mit Technik zu tun hat.
Digitale Technologien werden für die tägliche journalistische Arbeit immer wichtiger. Das hat sich beispielsweise in der Berichterstattung über den US-Wahlkampf gezeigt: Von den Medien wurde erwartet, die Ergebnisse möglichst schnell zu analysieren und in Grafiken darzustellen.
Mit den Möglichkeiten von neuen Technologien im Journalismus, insbesondere mit Systemen für künstliche Intelligenz (KI), hat sich das JournalismAI Festival beschäftigt. Es fand Anfang Dezember als virtuelle Konferenz statt und wurde von der London School of Business organisiert.

Journalisten unterstützen – anstatt sie zu ersetzen

In den Vorträgen der Konferenz wurde deutlich: Das Klischee vom intelligenten Roboterkollegen, der Texte schreibt, ist nur ein sehr kleiner Bereich mit begrenzten Einsatzmöglichkeiten für künstliche Intelligenz, und bei Weitem nicht der vielversprechendste. Vielmehr kommen heute Tools zum Einsatz, die Journalisten bei ihrer Arbeit unterstützen, anstatt deren Jobs zu ersetzen.
Bei der Nachrichtenagentur Associated Press zum Beispiel wird KI in unterschiedlichen Bereichen eingesetzt: um Interviews zu transkribieren, um Ausschnitte aus Videos auszuwählen oder um Kurzfassungen von bereits geschriebenen Meldungen zu generieren.

Nicht jedes Problem erfordert eine technische Lösung

"Wie entlasten Sie Ihre Journalisten von den banalen Aufgaben, sodass sie sich auf die wichtigen Dinge konzentrieren können?", fasst Cait O’Riordan die Einsatzgebiete für KI zusammen. Als Chefin der Innovationsabteilung der Financial Times ist O'Riordan für die Entwicklung neuer journalistischer Produkte zuständig.
Doch bei allem Hype um neue Technologien und allen Hoffnungen, die damit verbunden sind: Man müsse auch "Erwartungsmanagement" betreiben, sagt Uli Köppen, die das "AI + Automation Lab" des Bayerischen Rundfunks leitet.
"Es kommt schon vor, dass Leute mit einem speziellen Problem zu uns kommen, die gehört haben, dass KI da helfen kann, und jetzt hoffen, dass wir die Lösung durch die Tür schieben." Doch: Technik kann nicht alles lösen und nicht jede Aufgabe oder jedes Problem erfordert eine technische Lösung.

Das Risiko eines verzerrten Weltbilds minimieren

Die Gefahr von diskriminierenden Algorithmen war ein weiteres Thema der Konferenz: "Wenn die Maschine mit einem verzerrten Datensatz trainiert wurde, der zum Beispiel eine bestimmte gesellschaftliche Gruppe negativ darstellt, dann ist das auch das Weltbild, das die KI haben wird", sagt Agnes Stenbom. Sie arbeitet beim schwedischen Medienkonzern Schibsted für den Bereich "Verantwortungsvolle Daten und KI" und forscht zu diesem Thema im Rahmen einer Doktorarbeit an der Königlichen Technischen Hochschule in Stockholm.
Stenbom fordert, bei der Entwicklung von KI-Technologien das Risiko eines verzerrten Weltbilds zu minimieren: "Das Weltbild der Menschen, die diese Systeme schaffen, ist in jedem Arbeitsschritt präsent. Indem wir die Datensätze genau kontrollieren oder zumindest versuchen, unsere Systeme mit einem starken Bewusstsein für das Risiko zu designen. Dann denke ich, können wir auch verhindern, dass KI am Ende zu Diskriminierung führt", sagt die Forscherin.

"Skillsets funktionieren wie Puzzleteile"

Auch Köppen vom Bayerischen Rundfunk denkt, dass die Gruppe der Medienmacher sehr viel diverser werden sollte – sowohl in Bezug auf beispielsweise Herkunft und Geschlecht als auch auf ihre Fähigkeiten: "Skillsets funktionieren wie Puzzleteile: Dass man weiß, ob ein Programmierer etwas mit meiner Arbeit anfangen kann, und dass ich mit den Ergebnissen eines Programmierers was anfangen kann."
Diese Art der Zusammenarbeit erfordert ein Verständnis von den Tätigkeiten der jeweils anderen. Sie geht über simple Arbeitsteilung hinaus und bedeutet auch ein Umdenken in Bezug auf redaktionelle Prozesse.
Forscherin Stenbom nennt diese Form des Teamworks "Hybridisierung": "Im Grunde ist das die Idee, dass Menschen und Maschinen dann besser funktionieren, wenn wir ihre radikal unterschiedlichen Kompetenzen und Intelligenztypen für eine gute Sache miteinander kombinieren."
(nog)
Mehr zum Thema