Besprechung

Der Code kennt keine Moral

08:07 Minuten
21.03.2015
Audio herunterladen
Wohin soll ein selbstfahrendes Auto ausweichen, wenn es sich zwischen einem Kind und einer Menschengruppe entscheiden muss? In Zukunft muss das ein Algorithmus entscheiden können.
Wohin soll ein selbstfahrendes Auto ausweichen, wenn es sich zwischen einem Kind und einer Menschengruppe entscheiden muss? In Zukunft muss das ein Algorithmus entscheiden können. Genauer gesagt: Entwickler müssen nach unseren Moralvorstellungen den Algorithmus programmieren.
Algorithmen bestimmen immer mehr unseren Alltag und unser gesellschaftliches Zusammenleben. Sie entscheiden darüber, was uns bei unserer Internetrecherche angezeigt wird, das heißt, sie entscheiden, welche Informationen uns erreichen. Welche Werbung uns angezeigt wird. Oder ob wir einen Kredit oder gar einen Job bekommen.
Ein Algorithmus ist "eine eindeutige Handlungsvorschrift zur Lösung eines Problems", heißt es bei Wikipedia. Aber wie geht man mit einem Algorithmus um, dessen Grundlage allein schon fragwürdig ist - zum Beispiel mit einem Programm, dass zur Überwachung von Menschen oder zur Steuerung von Kriegsdrohnen eingesetzt werden soll?
Anfang März veranstaltete die Forschungsstelle Internet und Menschenrechte der Europa-Universität Viadrina in Frankfurt eine Tagung über "Ethik und Algorithmen". Wir sprechen mit dem Direktor Ben Wagner über den noch jungen gesellschaftlichen Diskurs um diese Thematik.
Bild: Stripes von Gerwin Sturm auf Flickr, CC BY-SA