Meinungen English Version English Version »

Die Gesellschaft, die wir geschaffen haben

Künstliche Intelligenz zwingt uns, zu erkennen, wie soziale und politische Konflikte unsere Datenverwendung prägen. Ein Kommentar von Diane Coyle.

Diane Coyle
«So, wie wir messen, was wir sehen, neigen wir auch dazu, nur das zu sehen, was wir messen.»

Algorithmen sind ebenso verzerrt wie die Daten, mit denen sie gespeist werden, und alle Daten sind verzerrt. Nicht einmal «offizielle» Statistiken können als objektive, ewig gültige «Fakten» betrachtet werden. Die von Regierungen veröffentlichten Zahlen stellen eine Gesellschaft so dar, wie sie sich durch die Linse dessen präsentiert, was Datenerfasser im Augenblick für relevant und wichtig halten. Kategorien und Klassifizierungen, die zum Verständnis der Daten erstellt werden, sind nicht neutral. So, wie wir messen, was wir sehen, neigen wir auch dazu, nur das zu sehen, was wir messen.

Die zunehmende Ausbreitung der algorithmischen Entscheidungsfindung auf immer weitere Bereiche der Politikgestaltung wirft ein grelles Licht auf die soziale Voreingenommenheit, die sich einst in den Tiefen der von uns erhobenen Daten verbarg. Indem künstliche Intelligenz bestehende Strukturen und Prozesse an ihre logischen Extreme treibt, zwingt sie uns zur Auseinandersetzung mit der Art von Gesellschaft, die wir geschaffen haben.

Das Problem besteht nicht nur darin, dass Computer darauf ausgerichtet sind, wie Unternehmen zu denken, wie mein Kollege an der Universität Cambridge, Jonnie Penn, argumentiert. Es geht auch darum, dass Computer wie Ökonomen denken. Schliesslich ist künstliche Intelligenz eine unfehlbare Version des Homo oeconomicus, wie man sich ihn nur vorstellen kann. Bei KI handelt es sich um ein rational kalkulierendes, logisch konsistentes, zweckorientiertes Medium, das in der Lage ist, mit endlichen Rechenressourcen die gewünschten Ergebnisse zu erreichen. Wenn es um die «Nutzenmaximierung» geht, ist sie weitaus effektiver als jeder Mensch.

Was ist das Mass des Nutzens?

Der «Nutzen» ist für Ökonomen, was «Phlogiston» einst für die Chemie war. Die ersten Chemiker stellten die Hypothese auf, wonach brennbare Stoffe ein verborgenes Element enthielten – Phlogiston. Damit konnte man erklären, warum Substanzen ihre Form änderten, wenn sie verbrannten. Doch trotz aller Bemühungen gelang es der Wissenschaft nie, diese Hypothese zu bestätigen. Phlogiston konnte aus dem gleichen Grund nicht nachgewiesen werden, aus dem die Ökonomen von heute nicht in der Lage sind, ein Mass des tatsächlichen Nutzens vorzulegen.

Ökonomen verwenden den Begriff des Nutzens, um zu erklären, warum Menschen die Entscheidungen treffen, die sie treffen – was sie kaufen, wo sie investieren oder wie schwer sie arbeiten: Jeder Mensch versucht entsprechend seinen Präferenzen und Annahmen über die Welt und innerhalb der durch knappe Einkommen oder Ressourcen gesetzten Grenzen den Nutzen zu maximieren. Obwohl physisch nicht existent, ist der Nutzen ein machtvolles Konstrukt. Es scheint nur natürlich, davon auszugehen, dass jeder versucht, für sich selbst das meiste herauszuholen.

Überdies entstammt der Nutzenbegriff der Ökonomen dem klassischen Utilitarismus, der darauf abzielt, der grösstmöglichen Zahl an Menschen ein Höchstmass an Nutzen zu sichern. Ebenso wie moderne Ökonomen den Spuren John Stuart Mills folgen, handelt es sich bei den meisten derjenigen, die Algorithmen konzipieren, um Utilitaristen, die der Ansicht sind, wenn der «Nutzen» bekannt sei, könne er auch maximiert werden.

Computer kennt keine Kompromisse

Allerdings kann diese Annahme zu beunruhigenden Ergebnissen führen. Man denke beispielsweise daran, wie Algorithmen in der Entscheidung darüber eingesetzt werden, ob Gefangene auf Bewährung entlassen werden sollen. Eine massgebliche Studie von 2017 kommt zu dem Schluss, dass Algorithmen in der Prognose von Rückfallquoten viel besser abschneiden als Menschen und eingesetzt werden könnten, um die «Gefangenenrate» «ohne Anstieg der Kriminalitätsrate» über 40% zu senken. In den USA könnte künstliche Intelligenz also eingesetzt werden, um eine Gefangenenpopulation zu verringern, die in unverhältnismässig hohem Grad aus Schwarzen besteht. Was aber passiert, wenn künstliche Intelligenz den Prozess der Entlassungen auf Bewährung übernimmt und immer noch mehr Afroamerikaner als Weisse inhaftiert werden?

Durch die hocheffiziente algorithmische Entscheidungsfindung sind solche Fragen in den Vordergrund gerückt und zwingen uns, genau zu entscheiden, welche Ergebnisse maximiert werden sollen. Wollen wir bloss die Zahl der Häftlinge insgesamt verringern, oder soll uns auch Gerechtigkeit ein Anliegen sein? Während die Politik Schummeleien und Kompromisse zulässt, um solche Zielkonflikte zu verschleiern, erfordert der Computercode Klarheit.

Diese notwendige Klarheit erschwert es, die strukturellen Ursachen gesellschaftlicher Ungleichheiten zu ignorieren. Im Zeitalter der künstlichen Intelligenz zwingen uns Algorithmen, zu erkennen, wie die Folgen früherer sozialer und politischer Konflikte durch unsere Verwendung der Daten in der Gegenwart fortbestehen.

Ethische Fragen

Dank des Engagements von Gruppen wie der AI Ethics Initiative und der Partnership on AI wurde eine umfassendere Debatte über Ethik im Bereich künstliche Intelligenz angestossen. Aber KI-Algorithmen machen freilich nur das, wofür sie programmiert wurden. Die eigentliche Frage reicht über den Einsatz algorithmischer Entscheidungsfindung in den Bereichen Unternehmensführung und politische Governance hinaus und betrifft die ethischen Grundlagen unserer Gesellschaften.

Obwohl wir zweifellos eine Debatte über die praktischen und philosophischen Zielkonflikte in der Maximierung des «Nutzens» durch KI führen müssen, ist es auch notwendig, dass wir uns in Selbstreflexion üben. Algorithmen werfen grundlegende Fragen darüber auf, wie wir soziale, politische und wirtschaftliche Beziehungen bisher organisiert haben. Jetzt gilt es zu entscheiden, ob wir die derzeitigen sozialen Gegebenheiten in die Codes der künftigen Entscheidungsfindungsstrukturen giessen wollen. Angesichts der aktuell weltweit um sich greifenden politischen Zersplitterung scheint ein guter Moment für die Erstellung eines neuen Skripts gekommen zu sein.

Copyright: Project Syndicate.

Leser-Kommentare

Clifford Padevit 31.12.2018 - 08:46