Seit 23:05 Uhr Fazit

Dienstag, 21.08.2018
 
Seit 23:05 Uhr Fazit

Politisches Feuilleton | Beitrag vom 29.05.2018

Algorithmen in der SozialverwaltungWarum Daten keine Verantwortung übernehmen können

Von Lena Ulbricht

Beitrag hören Podcast abonnieren
Illustration Künstliche Intelligenz (imago)
Algorithmen verengen den Blick, warnt Lena Ulbricht. (imago)

In Zeiten von Big Data werden Algorithmen auch eingesetzt, um Probleme der Sozialverwaltung zu lösen. Wir dürfen Technik aber nicht dafür verwenden, Verantwortung zu verschieben, kritisiert die Politologin Lena Ulbricht - und unpopuläre Maßnahmen zu legitimieren.

Das Szenario ist verlockend: Intelligente Maschinen durchforsten die riesigen Datenberge der staatlichen Verwaltung und legen Muster offen, die Menschen mit bloßem Auge nicht erkennen können.

Mitarbeiter der Verwaltung, die derzeit meist mehr Fälle betreuen müssen als sinnvoll möglich ist, können dann ihre eigentlich zu knappen Ressourcen zielgerichtet einsetzen. In den USA, in Neuseeland und in Großbritannien werden Algorithmen schon heute eingesetzt, um vorherzusagen, welche Kinder und Jugendliche besonders gefährdet sind, Opfer von Gewalt oder Vernachlässigung zu werden. Hausbesuche gibt es somit nur noch bei Familien, in denen Kinder wirklich gefährdet sind; alle anderen müssen keine unangenehmen Überprüfungen erdulden. Ein schlanker Staat wird tätig und verhindert, dass Kinder zu Opfern werden. Der Nutzen von so etwas ist offensichtlich…

Eine Gefährdungslage erkannt, die andere verkannt

Doch so sieht die Realität leider nur selten aus. Denn ob Algorithmen in der Sozialverwaltung die Ziele erfüllen, die man sich gesteckt hat, ist fraglich. Typischerweise erkennen Algorithmen bestimmte Gefährdungslagen und verkennen andere. Zudem machen sie unterschiedlich gute Vorhersagen für verschiedene Gruppen, etwa bei unterschiedlichen Einkommen oder mit Blick auf die ethnische Zugehörigkeit der betroffenen Familien. Es kann auch passieren, dass zu viele Familien zu Unrecht oder übermäßig reglementiert werden. Was, wenn ein schlechter Algorithmus dazu führt, dass ein Kind ohne Not von seinen Eltern getrennt wird oder bestimmte Familien diskriminiert werden?

Zudem bringt die Arbeit mit Algorithmen ganz eigene Probleme mit sich: So kann es leicht passieren, dass der Algorithmus die zentrale Autorität wird und andere wichtige Elemente der Sozialarbeit vernachlässigt werden. Dazu zählen etwa die Berufserfahrung und persönliche Einschätzung der Sozialbeamten. Wir wissen aus Studien, dass Menschen Computern übermäßig vertrauen und große Schwierigkeiten haben, Entscheidungen gegen den Algorithmus zu treffen. Sie befürchten, im Krisenfall zur Verantwortung gezogen zu werden. Denn was kann man im Rückblick besser begründen: persönliches Urteil oder datenbasierte Computerempfehlung?

Nicht zuletzt liefern die eingesetzten Algorithmen meist kaum Informationen über die Ursachen von Gewalt und Vernachlässigung. Selbst wenn Kinder und Jugendliche zutreffend als gefährdet identifiziert werden können – welche Faktoren begründen die Gefährdung und wie kann man sie am besten schützen? Algorithmen verengen den Blick meist auf Umstände, über die wir Daten haben. Wichtige Aspekte für das Wohlergehen des Kindes, die aus den Datenbergen nicht hervorgehen, sind nicht Teil der Lösungsstrategie, wie etwa die Qualität der örtlichen Schule oder das weitere soziale Netzwerk der Familie.

Welche positiven und negativen Effekte zeigen sich?

In Deutschland gibt es erste Überlegungen darüber, große Datensätze und Vorhersagen in der Sozialverwaltung einzusetzen. Und dass man damit experimentieren wird, ist sicher. Ich halte das für sinnvoll. Angesichts der Erfahrungen aus den USA sollten wir aber genau untersuchen, wie Datensätze, Algorithmen und darauf aufsetzende Entscheidungsverfahren wirken: Werden die selbstgesteckten Ziele erreicht? Welche positiven und negativen Effekte zeigen sich: Für Sozialbeamte, für die betroffenen Individuen und ihre Familien, für benachteiligte soziale Gruppen, für die Gesellschaft? Welche mittel- und langfristigen Folgen zeigen sich?

Wir dürfen Algorithmen allerdings nicht dafür verwenden Verantwortung zu verschieben und unpopuläre Maßnahmen zu legitimieren, etwa die Kürzung von Sozialleistungen oder die personelle Unterbesetzung in Sozialämtern. Algorithmen können helfen; sie können aber auch alles schlimmer machen.

Lena Ulbricht (Foto: David Ausserhofer)Lena Ulbricht (Foto: David Ausserhofer)Lena Ulbricht leitet eine Forschungsgruppe am Weizenbaum-Institut für die Vernetzte Gesellschaft in Berlin. Sie hat an der HU Berlin promoviert und befasst sich in ihrer aktuellen Forschung mit algorithmenbasierten Entscheidungen in der Politik und der Regulierung von Big Data und Künstlicher Intelligenz.


Mehr zum Thema

Suizid-Prävention im Netz - Kann ein Algorithmus eine Gefährdung erkennen?
(Deutschlandfunk Kultur, Zeitfragen, 11.01.2018)

Digitale Gesellschaft - Wir brauchen eine Algorithmen-Ethik
(Deutschlandfunk Kultur, Politisches Feuilleton, 20.11.2017)

Cathy O'Neil: "Angriff der Algorithmen" - Mathematische Massenvernichtungswaffen
(Deutschlandfunk Kultur, Buchkritik, 20.09.2017)

Politisches Feuilleton

Katholische FamilienpolitikDie Moral und Doppelmoral der Kirche
Papst Franziskus während einer Audienz auf dem Petersplatz im Vatikan 2018. (Spaziani / dpa)

Mit ihren rigorosen Dogmen zur Untrennbarkeit der Ehe, Empfängnisverhütung und Homosexualität gleicht die Familienpolitik der katholischen Kirche schon längst einer Predigt, der keiner mehr zuhört, meint Uwe Bork anlässlich des "Internationalen Weltfamilientreffens".Mehr

weitere Beiträge

Entdecken Sie Deutschlandfunk Kultur