Seit 11:30 Uhr Musiktipps

Mittwoch, 12.12.2018
 
Seit 11:30 Uhr Musiktipps

Breitband | Beitrag vom 10.11.2018

Algorithmen in BehördenWenn Software in Ämtern mitentscheidet

Tobias Matzner im Gespräch mit Katja Bigalke

Beitrag hören Podcast abonnieren
Ein Stapel Akten liegt auf einem Schreibtisch in einer Behörde   (icture alliance / dpa / Patrick Pleul)
Effizientere Prozesse in Behörden: Der Einsatz maschinell lernender Software berge Risiken, sagt Tobias Matzner. (icture alliance / dpa / Patrick Pleul)

Mitarbeiter von Behörden werden bei ihren Bescheiden von Algorithmen unterstützt: Das klingt praktisch und modern. Doch auch maschinelle Entscheidungen können intransparent und diskriminierend sein. Nur wird ihnen oft mehr vertraut.

Sowohl in Deutschland wie auch in vielen anderen Ländern Europas leiden Ämter und öffentliche Verwaltung unter Personalmangel: Zu wenige Mitarbeiter müssen sich um zu viele Betroffene kümmern. Das ist ein Grund, warum dort in den vergangenen Monaten und Jahren computergestützte Werkzeuge eingeführt wurden. Hinter dem Einsatz dieser Programme steht die Idee, Prozesse in den Behörden effizienter zu gestalten.

Einsatz gegen sozial Schwächere kein Zufall

Die Menschen, die das planten und das einsetzten, seien wohl davon überzeugt, eine gute Technik vorzuschlagen, sagte Tobias Matzner im Deutschlandfunk Kultur. "Dieser Glaube basiert aber meiner Meinung nach auf verkürzten Annahmen", so der Philosoph und Informatiker von der Universität Paderborn.

In Österreich soll ein Programm ab kommendem Jahr beim Arbeitsmarktservice, dem Pendant zum deutschen Jobcenter, Arbeitssuchende in drei Kategorien einteilen: Je nachdem, wie hoch die Chance ist, dass sie schnell wieder einen Job finden. In Polen ist ein solches System schon länger im Einsatz und in den Niederlanden wird – gestützt von Algorithmen - nach Sozialbetrügern gefahndet.

Es sei kein Zufall, dass es sich regelmäßig um Bereiche mit sozial schwachen Menschen handele, kritisierte Tobias Matzner den Einsatzbereich solcher automatisierter Entscheidungshilfen. "Schon weit vor algorithmischen Verfahren ging es immer darum, gerade solche Menschen sehr stark in den Fokus von Überwachungs- und Kontrollmechanismen zu nehmen."

Versteckte Diskriminierung durch "Stellvertreterdaten"

Ein großes Problem von softwaregestützten Entscheidungsfindungen sei tatsächlich die Diskriminierung, und zwar eine versteckte. Auch wenn diese Anwendungen wie vorgeschrieben, bestimmte Daten nicht verwendeten, seien sie sehr gut darin, sogenannte Stellvertreterdaten zu erheben, erklärte der Informatiker:

"Wir haben gesetzlich geschützt, gewisse Eigenschaften, die wir in institutionellen Entscheidungen nicht berücksichtigen dürfen, steht im Gleichstellungsgesetz: Geschlecht, Herkunft, Ethnizität, Religion und so weiter. Diese Daten werden dann auch explizit als solche nicht benutzt. Aber man kann trotzdem Rückschlüsse auf genau diese Eigenschaften ziehen, indem man diese Stellvertreterdaten findet."

Eine Sachbearbeiterin telefoniert in ihrem Büro. (pa/dpa/Seidel)Im Alltag werden Sachbearbeiterinnen oder Sachbearbeitern die Fehler automatisierter Verfahren kaum auffallen, vermutet Tobias Matzner. (pa/dpa/Seidel)

Problematisch für die Betroffenen sei auch die Intransparenz der Verfahren und die Unverfügbarkeit der Anwendungen, kritisierte Tobias Matzner: "Es wird irgendwie eine Entscheidung getroffen und es ist nicht besonders klar, wie diese Entscheidung getroffen wird. Deswegen finde ich es ganz wichtig, dass immer, wenn so ein Verfahren zum Einsatz kommt, im Voraus geklärt wird: Wohin können die Leute, die davon betroffen sind, sich wenden."

Verfahrensfehler hinter mehreren Grenzen versteckt

Denn auch wenn diese technikgestützten Verfahren mit einer gewissen Aura von Objektivität umgeben seien, sei klar, dass sie, wie jedes Verfahren, Fehler produzierten:

"Bloß dass hier diese Fehler noch tiefer, sozusagen hinter einer institutionellen Grenze, die dann nochmal hinter einer technischen Grenze liegen, ganz tief irgendwo versteckt sind. So stark versteckt, dass man davon ausgehen muss, dass Sachbearbeiterinnen oder Sachbearbeiter im Alltag diese Fehler erstmal nicht auffallen. Sie nutzen die Software und kriegen ein Ergebnis. Die halten sich an das Ergebnis. Dafür ist die Software da, das kann man diesen Menschen auch nicht übelnehmen."

Unabhängige öffentliche Stellen zur Kontrolle einrichten

Deshalb müsse es eine andere, im besten Fall unabhängige Stelle geben, die dann sehr gut und kleinteilig kontrolliere, so der Informatiker und Philosoph. Diese Kontrollfunktion gestalte sich aber sehr schwierig, wenn man mit maschinellem Lernen arbeite. "Das heißt im Extremfall, bei jeder Entscheidung ist es schon eine andere Technik, bei jeder Entscheidung ist es schon ein neuer Algorithmus", beschrieb Tobias Matzner die Herausforderung: "Das ist eigentlich im Voraus nicht mehr absehbar, was da passieren wird."

Mehr zum Thema

Datenspender gesucht - Aktivisten wollen den SCHUFA-Algorithmus knacken
(Deutschlandfunk Kultur, Zeitfragen, 03.04.2018)

Künstliche Intelligenz in der Palliativmedizin - Wenn ein Algorithmus den Tod voraussagt
(Deutschlandfunk Kultur, Zeitfragen, 08.03.2018)

Suizid-Prävention im Netz - Kann ein Algorithmus eine Gefährdung erkennen?
(Deutschlandfunk Kultur, Zeitfragen, 11.01.2018)

Breitband

BlockchainTechnologie zwischen Hype und Hohn
Blockchain technology, conceptual illustration Blockchain technology concept. Holograms symbol of bitcoin and padlock on digital background. 3D illustration. PUBLICATIONxINxGERxSUIxHUNxONLY SERGIIxIAREMENKO/SCIENCExPHOTOxLIBRARY F022/9364 (imago / Sergej Iaremenko)

Als vor einigen Jahren die Technologie der Blockchain erfunden wurde, erwarteten sich manche davon gewissermaßen die Lösung aller gesellschaftlichen Probleme. Ein radikal-demokratischer, libertärer Traum - doch der Hype scheint vorbei. Mehr

weitere Beiträge

Das könnte sie auch interessieren

Entdecken Sie Deutschlandfunk Kultur