Meinungen

Siegeszug der Desinformation

Die Fähigkeit von künstlicher Intelligenz, menschliche Sprache zu imitieren, ist beeindruckend. Das kann auch zur Verbreitung von Fake News genutzt werden, schreibt FuW-Redaktor Alexander Trentin.

«Die Waffen der massenhaften Desinformation sind leicht einzusetzen.»

Die Geschichtsbücher der Zukunft werden für den Februar des zu Ende gehenden Jahres einen technologischen Durchbruch vermerken. Ein Forschungszentrum für künstliche Intelligenz (KI), OpenAI, hat damals die Ergebnisse eines Computerprogramms bekanntgegeben. Doch die Öffentlichkeit durfte das Programm noch nicht verwenden – es sei für die Gesellschaft zu gefährlich, hiess es von OpenAI. Das war weder ein Werbegag noch eine leere Warnung.

Worum geht es? GPT-2 ist ein Programm zur Generierung von menschlicher Sprache – trainiert wurde es auf Basis von 8 Mio. Webseiten, 40 Gigabyte an Text. Man kennt das Prinzip vom eigenen Handy, wo eine simplere Technologie beim Tippen Wortvorschläge gibt. So kann man einen neuen Text bilden, wenn man die Vorschläge Wort für Wort aneinanderreiht, nachdem man dem Computer einen Anfang gegeben hat.

Das hört sich zuerst nach einer Spielerei an, bis man Beispiele sieht, wie präzise GPT-2 den Duktus eines Textes repliziert und wie überzeugend der Inhalt ist – obwohl er nur Wort für Wort generiert wurde. Deswegen hat OpenAI mehrere Monate überprüft, dass «kein starker Beweis für den Missbrauch» des Programms vorliegt. Seit Anfang November ist das System öffentlich und kann von jedermann genutzt werden. Die ewige Geheimhaltung der Technologie wäre illusorisch gewesen: Mehrere Forscherteams hatten schon vorher Nachahmerprodukte zum Programm veröffentlicht.

Überzeugend menschlich

Die generierten Texte sind oft nicht perfekt und können bei genauerer Betrachtung noch häufig als Fake erkannt werden. Doch wie überzeugend sie teils schon sind, zeigt folgendes Beispiel – der erste Satz ist dem Programm gestellt worden, danach hat es den Text weitergeschrieben (übersetzt aus dem Englischen): «Künstliche Intelligenz hat grosse Nutzen, aber die Gefahren können gewaltig sein. Eine der Gefahren ist, dass KI einen so fortgeschrittenen Stand erreicht, dass es die Kapazität von Menschen übersteigt, sie zu kontrollieren und zu regulieren. Für den Staat wäre die beste Lösung, KI auf demselben Stand wie Menschen zu halten.»

Eine Studie zeigt, dass die künstlich erzeugten Texte  von GPT-2 bis zu 72% einer Gruppe von Probanden als definitiv menschlich überzeugt hatten – echte Artikel der «New York Times» hatten dies zu 83% geschafft. Das Modell ist damit ohne Zweifel ein Meilenstein für die automatische Generierung von Sprache. Es ist noch lange nicht das Ende der Entwicklung: Eine grössere Datenbasis, ausgefeiltere Technologien und mehr Rechenkapazität können die Ergebnisse weiter verbessern.

Dafür müssen Maschinen nicht selbständig denken. Die verwendete Technologie der künstlichen neuronalen Netze wird zwar oft mit der Arbeit menschlicher Neuronen verglichen, doch das heisst nicht, dass das Programm irgendeine Art von Bewusstsein entwickelt oder den Inhalt versteht, den es produziert. Das gibt es weiterhin nur in der Science Fiction. Man kann die Operationen als hochkomplexe statistische Berechnungen verstehen. Je besser das statistische Modell auf menschliche Texte trainiert wurde, desto überzeugender klingt das Imitat – auch wenn das Modell keinerlei Verständnis dafür hat, was es da schreibt.

Die Webseite www.newsyoucantuse.com («Nachrichten, die Ihnen nichts bringen») generiert schon täglich eine ganze Titelseite mit gefälschten Nachrichten auf Basis eines solchen Modells. Es ist keine Science Fiction und keine abstrakte Sorge von Fortschrittspessimisten, dass Maschinen uns mit Fake News überfluten könnten. Die ersten Waffen der massenhaften Desinformation sind verfügbar, und sie sind leicht einzusetzen. Es ist nur ein kleiner Schritt, um so ganze Zeitungen, vollständige Bücher, ein ganzes Wikipedia oder Millionen von Social-Media-Nachrichten zu generieren, in denen nur falsche, aber überzeugend klingende Texte verwendet werden. Jede Diskussion auf Twitter, jeder Kommentar unter einem YouTube-Video und jede Webseite könnten künftig gefälscht sein – ohne als Fälschung erkennbar zu sein.

Die heutigen Modelle könnten noch gefährlicher werden, wenn man sie spezifisch zur Verbreitung von Fehlinformationen weiterentwickelt. So könnten mit einfachsten Mitteln extremistische Propaganda oder die Ideologie autoritärer politischer Systeme im Internet massenhaft und in Sekundenschnelle verbreitet werden. Ein Prototyp dafür ist das an der University of Washington erstellte Programm Grover,  dessen automatisch generierte Inhalte für Probanden schon überzeugender sind als menschlich erstellte Propaganda. Zusätzlich könnten auf Basis von Persönlichkeitsprofilen computergenerierte Fake News viel mehr Durchschlagskraft entfalten. Wenn Propaganda sich darauf einstellt, auf welche Inhalte eine Person in der Vergangenheit angesprochen hat, könnten Texte automatisch individualisiert werden. Damit werden sie viel überzeugender.

Unter dem harmlos klingenden Begriff «synthetische Inhalte» gruppieren sich neben automatisch generierten Texten auch mit maschinellem Lernen erstellte Bilder, Videos und Stimmen. In den vergangenen Jahren hat es gewaltige Fortschritte bei automatisch generierten Gesichtern, dem Einsetzen von Personen in Videos («Deep Fakes») und der künstlichen Imitation von menschlichen Stimmen gegeben. Wer in nicht allzu ferner Zukunft einen Telefonanruf macht oder ein Video sieht, wird seinen Sinnen nicht mehr trauen dürfen.

Zweifel an jedem Medium

Alle Kommunikation wird mit Zweifeln behaftet sein. Ist das Video einer Rede des amerikanischen Präsidenten Donald Trump wirklich echt? Ist das online kursierende kompromittierende Bild eines Unternehmenschefs computergeneriert? Hat mich tatsächlich ein guter Freund angerufen, um mir eine Aktie zu empfehlen? Ist die riesige Internet-Enzyklopädie über Krankheiten, die ich konsultiere, wirklich verlässlich – oder wurde sie mit wenigen Programmierbefehlen geschaffen, um Werbung von Impfgegnern zu platzieren?

Es ist schwer vorstellbar, wie die heute noch relativ offenen Kommunikations- und Diskussionsplattformen im Internet weiterbestehen können, wenn sie von einem Virus der Desinformation befallen und ständigem Zweifel ausgesetzt sind. Die Computeringenieure sehen die Rettung in der Technik. Sie wollen schädlich verwendete KI-Methoden mit noch mehr KI ausbremsen. Wie Antikörper gegen Viren im menschlichen Körper soll KI trainiert werden, Fake News zu erkennen. Ein anderer Weg ist die Verwendung von Metadaten: Wie mit einem Wasserzeichen sollen Inhalte vom Produzenten gekennzeichnet werden, um Fälschungen auszuschliessen.

Auch die Sensibilisierung von Nachrichtenkonsumenten könnte zumindest in nächster Zeit die Verbreitung der massenhaften Fake News verlangsamen. Denn die synthetischen Texte überzeugen zwar oft in ihrem Stil und Ton, aber an der inhaltlichen Stringenz mangelt es häufig – die Modelle verstehen ja nicht, was sie schreiben. Der Inhalt entsteht eher zufällig aus der Imitation der Texte, mit denen GPT-2 und Co. gefüttert wurden.

OpenAI führt in einer Studie als Schwachpunkt auf, wie wir Inhalte konsumieren: «Glaubwürdigkeit ist wichtiger als Genauigkeit, da Menschen auftretende Ungenauigkeiten oft wegerklären.» Teilnehmer von Experimenten hätten zwar die Ungenauigkeiten oder das Fehlen von Quellenangaben bemerkt, aber den Text wegen seiner Plausibilität als glaubwürdig eingeschätzt. Die Kompetenz, zu unterscheiden, ob ein Text mit seinem Inhalt überzeugt oder sich nur gut anhört, wird damit noch wichtiger. Trotz dieser Ideen, den Missbrauch von künstlicher Intelligenz einzudämmen, erscheint es angesichts der Gefahren zwangsläufig, dass wir uns in Zukunft weniger frei und weniger unkontrolliert austauschen und informieren werden. Die Büchse der Pandora ist im Februar geöffnet worden.