Automatisierte Rechenverfahren

Gegen die Übermacht der Algorithmen

Junge spielt Computerspiel
Algorithmen stecken in vielen Computerspielen. © dpa / Maximilian Schönherr
21.06.2017
Sie stecken hinter Handy-Spielen und sozialen Netzwerken: Algorithmen sind fast überall, doch die wenigsten wissen, wie sie funktionieren. Die Informatikerin Katharina Anna Zweig fordert einen kritischen Umgang mit den automatisierten Rechenverfahren.
Algorithmen tragen dazu bei, dass wir Lebenszeit verschwenden, meint die Bioinformatikerin Katharina Anna Zweig. "Sie sorgen dafür, dass wir möglichst lange auf irgendwelchen Plattform rumhängen oder in irgendwelchen Handy-Spielen gefangen sind", erklärt die Professorin von der Technischen Universität Kaiserslautern im Deutschlandfunk Kultur.

Welche Werbung zieht besser?

Algorithmen lesen aus vorhandenen Daten Trends ab und suchen Muster, um Verhalten vorherzusagen. Genutzt werden sie unter anderem von Anbietern von Internet-basierten Handy- oder Computerspielen und von sozialen Plattformen wie Facebook.
Früher habe man für den Test eines Computerspiels 100 Menschen einladen müsse, um zu sehen, was gut laufe. "Heute können wir dank des Internets verschiedene Spielregeln ausprobieren und dann schauen, was fixt die Leute mehr an, wo bleiben sie länger hängen, wo schauen sie sich mehr Werbung an, wo kaufen sie mehr", sagte Zweig.

Kontrolle ist schwierig

Sich einen wirklich unübersichtlichen Code anzuschauen und rauszubekommen, was dieser genau tue, sei nicht immer möglich, räumt die Informatikerin ein. "Aber ich gehe davon aus, dass Firmen natürlich auch reagieren werden, wenn sie wissen, da wird jemand reinschauen und ohne dass der sein Siegel gibt, darf ich gar nicht weiter machen. Dann werden die Codes auch besser lesbar sein."
(uz)
_____________________________________________________________________

Das Interview im Wortlaut:

Dieter Kassel: Auf der Jahrestagung des Deutschen Ethikrats in Berlin geht es heute um das Thema Autonome Systeme. Wie intelligente Maschinen uns verändern. Die Biochemikerin und Bioinformatikerin Katharina Zweig wird dort einen Vortrag halten. Da geht es eben genau darum, oder konkreter darum, wie Vorhersagen zu unserem Verhalten inzwischen auch gewisse Entscheidungen bestimmen. Wir wollen mit ihr darüber reden, aber auch noch über andere Aspekte, die durchaus eine Rolle spielen bei unserem Umgang mit Algorithmen oder, wie man fast, glaube ich, eher sagen müsste, beim Umgang der Algorithmen mit uns. Sie ist übrigens, Katharina Zweig, Professorin an der Technischen Universität Kaiserslautern, aber jetzt schon in Berlin wegen der Jahrestagung des Ethikrats. Frau Zweig, einen schönen guten Morgen!
Katharina Zweig: Schönen guten Morgen!
Kassel: Eine Ihrer Theorien besteht ja darin, dass Algorithmen auch dazu beitragen, dass wir Lebenszeit verschwenden. Das klingt natürlich erst mal überraschend, denn, um einfache Beispiele zu nehmen, in Navigationssystemen sorgen die Algorithmen dafür, dass wir ganz schnell von A nach B kommen, in Suchmaschinen, dass wir ganz schnell halbwegs das Richtige finden. Also, Algorithmen tragen doch eigentlich eher dazu bei, dass wir Zeit sparen.
Zweig: Ja, und auf der anderen Seite sorgen sie dafür, dass wir möglichst lange auf irgendwelchen Plattformen herumhängen in irgendwelchen Handyspielen gefangen sind. Und das ist mir sehr aufgefallen, weil ich tatsächlich nur ein einziges Spiel auf meinem Handy habe. Aber ich habe mich gewundert, wie schnell sich da die Regeln ändern, und warum man manchmal Belohnungen kriegt und manchmal nicht. Aber es ist etwas, was wir vorher nicht machen konnten. Wenn Sie früher ein Computerspiel gekauft haben, dann war das fertig im Regal. Heute können wir dank des Internets verschiedene Spielregeln ausprobieren und dann gucken, was fixt die Leute mehr an, wo bleiben sie länger hängen, wo gucken sie sich mehr Werbung an, wo kaufen sie mehr in diesen Spielen. Und das ist natürlich alles über das Internet vermittelt und wird auch teilweise durch Algorithmen dann gesteuert, die die Auswertungen machen.

Automatisierte soziale Experimente

Kassel: Dass Firmen, die uns irgendwas verkaufen, ob es nun ein Computerspiel ist oder ein Waschmittel, versuchen uns auch zu manipulieren, ist ja nicht neu. Aber Sie sagen tatsächlich, Algorithmen bieten da Möglichkeiten, die A) umfassender und B) natürlich auch weniger gut durchschaubar sind als das, was wir bisher kannten?
Zweig: Nein. Eigentlich ist es nicht so sehr der Algorithmus, sondern die Möglichkeit, ein Experiment aufzusetzen innerhalb von wenigen Stunden. Denn ich konnte ja bisher, wenn ich rauskriegen wollte, welches Spiel macht süchtiger, welches Spiel lässt mich länger mitmachen, dann hätte ich hundert Leute einladen müssen in ein Labor, und 50 von denen hätten die eine Variante auf dem Computer gehabt, 50 Prozent hätten die andere Variante gehabt, und dann hätte ich messen können in einem naturwissenschaftlichen Experiment, welches davon die Leute länger am Spielen hält. Und das ist heutzutage alles automatisiert. Ob es darum geht, ob wir auf einem Reiseportal das teurere Hotel kaufen oder eben länger spielen oder uns länger auf Facebook aufhalten, das alles wird durch sehr stark automatisierte soziale Experimente ausprobiert, und das ist die Neuheit daran.

Schuldspruch per Algorithmus?

Kassel: Damit sind wir, obwohl das scheinbar was ganz anderes ist, was ganz anderes eben doch nicht, sind wir bei dem Thema, zu dem Sie diesen Vortrag halten werden heute Vormittag. Da geht es, wenn ich das richtig verstanden habe, darum, dass Algorithmen eben auch vorhersagen können oder es angeblich zumindest können, wie hoch die Rückfallwahrscheinlichkeit von jugendlichen Straftätern zum Beispiel ist. Auch da wird manch einer sagen, ein gigantischer Vorteil, da werden Datenmengen ausgewertet, die ein Mensch nicht auswerten kann, und wir können quasi in die Zukunft schauen. Wo liegt denn für Sie da das Risiko?
Zweig: Erst mal denke ich auf jeden Fall auch, dass das eine Chance sein könnte. Wie kam denn das überhaupt zustande? Da muss man sich ein bisschen angucken, wie das passieren kann. Die USA hat die zweithöchste Inhaftierungsquote der Welt. 666 Einwohner von 10.000 sind im Gefängnis. Das muss man sich mal auf der Zunge zergehen lassen. Zudem hat man herausgefunden, dass die ethnische Herkunft, und sei sie Generationen her, immer noch eine Rolle spielt. Es gibt viel mehr Afroamerikaner in den Gefängnissen als in der Bevölkerung. Und da gibt es jetzt Bestrebungen, Algorithmen und Computer dafür zu nutzen, objektivere Entscheidungen zu treffen. Denn was wir natürlich einem Computer vorenthalten können, ist das Geschlecht einer Person, ist die ethnische Herkunft. Das können wir einem Richter oder einer Richterin oder einem menschlichen Experten einfach nicht vorenthalten, er hat ja Augen im Kopf, und soll dann eine Entscheidung treffen. Also die Hoffnung ist, dass der Computer die objektivere Entscheidung trifft. Aber was dabei übersehen wird, ist, dass es so viele Einzelentscheidungen gibt, die im Endeffekt dann doch dazu führen, dass das Ganze sehr subjektiv wird. Ich gebe Ihnen dazu zwei Beispiele. In einer Software, die wir jetzt näher untersucht haben, wird auch ein Fragebogen ausgefüllt zusammen mit dem Verdächtigen. Und eine Frage richtet sich an die Person, die Beamtin oder den Beamten, die das zusammen mit dem Verdächtigen ausfüllt: "Glauben Sie, dass dieser Mensch ein Gangmitglied ist?" Das ist also eine subjektive Einschätzung des Beamten oder der Beamtin. Ein anderer Fragenblock richtet sich direkt an den Verdächtigen und fragt "Ist eines Ihrer engen Familienmitglieder schon mal in Haft gewesen?". Das wäre in Deutschland zum Beispiel eine Frage, die gar nicht zulässig ist, um den Schuldspruch zu bestimmen, sie könnte höchstens sich strafmildernd vielleicht auswirken, wenn jemand unter sehr schwierigen Verhältnissen aufgewachsen ist. In den USA ist es so, dass diese Software eigentlich für einen anderen Zweck entwickelt wurde, nämlich um knappe Therapieplätze zu vergeben nach einer Haft. Aber wie das so ist, wenn ein System erst mal in der Welt ist, dann rutscht es eben manchmal auch in eine andere Situation, wo man eigentlich noch mal drüber nachdenken müsste, wollen wir für den Schuldspruch jetzt wirklich Parameter benutzen, die der Verdächtige selbst gar nicht mehr beeinflussen kann.

Test mit künstlichen Daten

Kassel: Aber ist nicht die große Frage in diesem Zusammenhang, aber auch in anderen, die uns vielleicht im Alltag in Zukunft viel mehr betreffen werden, inwieweit diese Macht der Algorithmen da noch aufzuhalten ist. Zugespitzt haben Sie gerade beschrieben, wie ein Algorithmus vielleicht darüber entscheiden wird irgendwann, ob jemand auf freien Fuß kommt oder nicht. Oft wird darüber berichtet, dass der Algorithmus sehr bald schon darüber entscheidet, ob Sie oder ich einen Immobilienkredit bekommen oder nicht. Ist das alles aber wirklich noch aufzuhalten?
Zweig: Das ist eine gute Frage, das bekomme ich natürlich auch sehr oft zu hören. Es gibt die Superoptimisten, die sagen, künstliche Intelligenz ist natürlich viel besser als natürliche Intelligenz. Das sind so die Informatiker, die das insbesondere im Silicon Valley gern sagen. Auf der anderen Seite denke ich, dass wir natürlich die Möglichkeit haben, das zu kontrollieren, zu inspizieren. Das ist technisch jetzt nicht so schwierig. Da werden mir einige Kollegen widersprechen, denn einen wirklich unübersichtlichen Code sich anzugucken und dann rauszukriegen, was der genau tut, das wird nicht möglich sein. Aber ich gehe davon aus, dass Firmen natürlich auch reagieren werden, wenn sie wissen, da wird jemand reingucken, und ohne dass der sein Siegel gibt, darf ich gar nicht weitermachen. Dann werden die Codes auch besser lesbar sein. Und man muss auch gar nicht immer in den Code gucken. Das ist tatsächlich etwas, was auch ein großes Hemmnis sein kann. Viele dieser algorithmischen Fragen können wir von außen testen, und da wären wir jetzt wieder bei der Zeitverschwendung. Ich kann natürlich mit denselben Methoden auch Algorithmen mit künstlichen Daten einfach austesten und verstehen, was da passiert. Dazu muss ich nicht unbedingt in den Code hineingucken.
Kassel: Was können Algorithmen, und nicht zuletzt, was wollen wir sie eigentlich alles können lassen? Eine große Frage, über die wir geredet haben mit Katharina Zweig, Professorin am Institut für Informatik der Technischen Universität Kaiserslautern. Frau Zweig, ich danke Ihnen recht herzlich und wünsche Ihnen viel Erfolg heute Vormittag beim Deutschen Ethikrat!
Zweig: Herzlichen Dank, Herr Kassel!
Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Deutschlandfunk Kultur macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.
Mehr zum Thema