Seit 20:03 Uhr In Concert

Montag, 18.06.2018
 
Seit 20:03 Uhr In Concert

Politisches Feuilleton | Beitrag vom 29.05.2018

Algorithmen in der SozialverwaltungWarum Daten keine Verantwortung übernehmen können

Von Lena Ulbricht

Beitrag hören Podcast abonnieren
Illustration Künstliche Intelligenz (imago stock&people)
Algorithmen verengen den Blick, warnt Lena Ulbricht. (imago stock&people)

In Zeiten von Big Data werden Algorithmen auch eingesetzt, um Probleme der Sozialverwaltung zu lösen. Wir dürfen Technik aber nicht dafür verwenden, Verantwortung zu verschieben, kritisiert die Politologin Lena Ulbricht - und unpopuläre Maßnahmen zu legitimieren.

Das Szenario ist verlockend: Intelligente Maschinen durchforsten die riesigen Datenberge der staatlichen Verwaltung und legen Muster offen, die Menschen mit bloßem Auge nicht erkennen können.

Mitarbeiter der Verwaltung, die derzeit meist mehr Fälle betreuen müssen als sinnvoll möglich ist, können dann ihre eigentlich zu knappen Ressourcen zielgerichtet einsetzen. In den USA, in Neuseeland und in Großbritannien werden Algorithmen schon heute eingesetzt, um vorherzusagen, welche Kinder und Jugendliche besonders gefährdet sind, Opfer von Gewalt oder Vernachlässigung zu werden. Hausbesuche gibt es somit nur noch bei Familien, in denen Kinder wirklich gefährdet sind; alle anderen müssen keine unangenehmen Überprüfungen erdulden. Ein schlanker Staat wird tätig und verhindert, dass Kinder zu Opfern werden. Der Nutzen von so etwas ist offensichtlich…

Eine Gefährdungslage erkannt, die andere verkannt

Doch so sieht die Realität leider nur selten aus. Denn ob Algorithmen in der Sozialverwaltung die Ziele erfüllen, die man sich gesteckt hat, ist fraglich. Typischerweise erkennen Algorithmen bestimmte Gefährdungslagen und verkennen andere. Zudem machen sie unterschiedlich gute Vorhersagen für verschiedene Gruppen, etwa bei unterschiedlichen Einkommen oder mit Blick auf die ethnische Zugehörigkeit der betroffenen Familien. Es kann auch passieren, dass zu viele Familien zu Unrecht oder übermäßig reglementiert werden. Was, wenn ein schlechter Algorithmus dazu führt, dass ein Kind ohne Not von seinen Eltern getrennt wird oder bestimmte Familien diskriminiert werden?

Zudem bringt die Arbeit mit Algorithmen ganz eigene Probleme mit sich: So kann es leicht passieren, dass der Algorithmus die zentrale Autorität wird und andere wichtige Elemente der Sozialarbeit vernachlässigt werden. Dazu zählen etwa die Berufserfahrung und persönliche Einschätzung der Sozialbeamten. Wir wissen aus Studien, dass Menschen Computern übermäßig vertrauen und große Schwierigkeiten haben, Entscheidungen gegen den Algorithmus zu treffen. Sie befürchten, im Krisenfall zur Verantwortung gezogen zu werden. Denn was kann man im Rückblick besser begründen: persönliches Urteil oder datenbasierte Computerempfehlung?

Nicht zuletzt liefern die eingesetzten Algorithmen meist kaum Informationen über die Ursachen von Gewalt und Vernachlässigung. Selbst wenn Kinder und Jugendliche zutreffend als gefährdet identifiziert werden können – welche Faktoren begründen die Gefährdung und wie kann man sie am besten schützen? Algorithmen verengen den Blick meist auf Umstände, über die wir Daten haben. Wichtige Aspekte für das Wohlergehen des Kindes, die aus den Datenbergen nicht hervorgehen, sind nicht Teil der Lösungsstrategie, wie etwa die Qualität der örtlichen Schule oder das weitere soziale Netzwerk der Familie.

Welche positiven und negativen Effekte zeigen sich?

In Deutschland gibt es erste Überlegungen darüber, große Datensätze und Vorhersagen in der Sozialverwaltung einzusetzen. Und dass man damit experimentieren wird, ist sicher. Ich halte das für sinnvoll. Angesichts der Erfahrungen aus den USA sollten wir aber genau untersuchen, wie Datensätze, Algorithmen und darauf aufsetzende Entscheidungsverfahren wirken: Werden die selbstgesteckten Ziele erreicht? Welche positiven und negativen Effekte zeigen sich: Für Sozialbeamte, für die betroffenen Individuen und ihre Familien, für benachteiligte soziale Gruppen, für die Gesellschaft? Welche mittel- und langfristigen Folgen zeigen sich?

Wir dürfen Algorithmen allerdings nicht dafür verwenden Verantwortung zu verschieben und unpopuläre Maßnahmen zu legitimieren, etwa die Kürzung von Sozialleistungen oder die personelle Unterbesetzung in Sozialämtern. Algorithmen können helfen; sie können aber auch alles schlimmer machen.

Lena Ulbricht (Foto: David Ausserhofer)Lena Ulbricht (Foto: David Ausserhofer)Lena Ulbricht leitet eine Forschungsgruppe am Weizenbaum-Institut für die Vernetzte Gesellschaft in Berlin. Sie hat an der HU Berlin promoviert und befasst sich in ihrer aktuellen Forschung mit algorithmenbasierten Entscheidungen in der Politik und der Regulierung von Big Data und Künstlicher Intelligenz.


Mehr zum Thema

Suizid-Prävention im Netz - Kann ein Algorithmus eine Gefährdung erkennen?
(Deutschlandfunk Kultur, Zeitfragen, 11.01.2018)

Digitale Gesellschaft - Wir brauchen eine Algorithmen-Ethik
(Deutschlandfunk Kultur, Politisches Feuilleton, 20.11.2017)

Cathy O'Neil: "Angriff der Algorithmen" - Mathematische Massenvernichtungswaffen
(Deutschlandfunk Kultur, Buchkritik, 20.09.2017)

Politisches Feuilleton

SyriendebatteEs ist falsch, Moskau zu folgen!
Zwei Panzer stehen auf einer nicht asphaltierten Straße, im Hintergrund Nebel und Wohnhäuser, vor den Panzern gehen drei Männer. (dpa picture alliance/ Mikhail Voskresenskiy/ Sputnik)

Viele Linke und vermeintlich kritisch Denkende haben zum Syrienkonflikt die Erzählweise Moskaus und des Assad-Regimes übernommen. Unser Kommentator Emran Feroz fragt sich, was dahinter steckt: Chronische Ignoranz oder simple politische Verwirrung?Mehr

WM-AuftaktStellvertreterkrieg im Fußball
Der Innenraum des Olympiastadion Luschniki in Moskau. Die Stadt ist einer der Spielorte für die FIFA Fußball-Weltmeisterschaft 2018 in Russland. (picture alliance / dpa / Marius Becker)

Russland gegen Saudi Arabien: Das Eröffnungsspiel der Fußball-WM ist zumindest auf den ersten Blick aus sportlicher Sicht keine hochrangige Partie, meint Politikwissenschaftler Timm Beichelt. Politisch komme allerdings auf dem Platz einiges zusammen.Mehr

weitere Beiträge

Entdecken Sie Deutschlandfunk Kultur