Eine Frage der nationalen Sicherheit

Das US-Verteidigungsministerium startet ein Projekt, bei dem mit künstlicher Intelligenz gefälschte Videos erkannt werden sollen, noch bevor sie online sind. Beobachter sehen in den sogenannten Deepfakes jedoch keine Gefahr, sondern eine Lektion in Medienkompetenz.

Matthias Schüssler

Kann man mit der einen künstlichen Intelligenz ausbügeln, was die andere künstliche Intelligenz angerichtet hat? Das US-Verteidigungsministerium glaubt genau das. Das Pentagon hat Geld für ein Projekt gesprochen, bei dem Bilder und Videos mittels kluger Algorithmen auf ihre Echtheit überprüft werden. Fotos und speziell die anrüchigen Deepfakes sollen automatisch enttarnt werden. Die Prüfsoftware soll sogar erkennen, wie eine Manipulation entstanden ist.

Das Magazin «Technology Review» beschreibt, wie das gehen soll: Die Teilnehmer am Projekt haben den Auftrag, mit den Mitteln der künstlichen Intelligenz (KI) möglichst glaubwürdig Videos, Bilder und Tonaufnahmen zu fälschen. Gleichzeitig sollen die Experten aus dem Bereich der digitalen Spurensicherung KI-Werkzeuge bereitstellen, die den Fakes auf die Spur kommen.

Aus den Tiefen des Internets

Es ist nicht erstaunlich, dass sich das Pentagon um einen netzkulturellen Auswuchs kümmert. Entstanden sind die Deepfakes im Untergrund des Internets, konkret auf der Sammelsurium-Plattform Reddit. Dort wurden in einer unterdessen gesperrten Gruppe Pornoclips veröffentlicht, bei denen die Gesichter der Darsteller durch die von Prominenten ausgetauscht wurden. Vornehmlich Schauspielerinnen wie Emma Watson, Natalie Portman oder Gal Gadot wurden Opfer solcher Fälschungen. Das Techportal «The Verge» hat einige Urheber aufgespürt. Viele haben ihre Machwerke mit Wasserzeichen als Fälschung markiert: Es ging ihnen um ihre Wunschfantasien, nicht um die Ehrverletzung.

Männliche Schauspieler werden nicht entblösst, sondern verspottet: Nicolas Cage etwa steht im Zentrum eines viralen Internetphänomens, wobei er in Filme hineinmontiert wurde, bei denen er nicht hat mitspielen dürfen. Alles nur Spass? Manche befürchten, dass sich mit Deepfakes auch Regierungen und ganze Bevölkerungen hinters Licht führen lassen. Ein einziges virales Lügenvideo könnte internationale Konflikte auslösen. Die Techsite «The Outline» zitiert das Schreckensszenario des Computerwissenschaftlers Hany Farid von der Dartmouth University, in dem US-Präsident Trump einen Atomangriff auf Nordkorea ankündigt. Ein solches Machwerk zu erkennen, bevor es sozialmedial ausser Kontrolle gerät, könnte zur Frage der nationalen Sicherheit werden.

Gesichter auszutauschen, ist nach aktuellem Stand der Technik nicht trivial, aber längst nicht mehr so schwierig wie früher, wo Doppelgänger, aufwendige Make-ups, Requisiten und professionelles Filmequipment nötig waren. Man benötigt ein passendes Ausgangsvideo mit einem Akteur, der eine gewisse Ähnlichkeit mit der Person hat, die digital eingewechselt werden soll. Von dieser braucht man eine grössere Anzahl Fotos. Mit diesen Bildern wird das neuronale Netzwerk der Fälschungssoftware trainiert. Unter Umständen muss die Ausrichtung der eingestanzten Gesichter korrigiert werden. Schliesslich braucht man etwas Zeit, weil die Berechnungen Stunden oder Tage in Anspruch nehmen.

Manche Experten sind der Ansicht, dass Fälschungen schon bald nicht nur einfacher herzustellen, sondern auch überzeugender sein werden. Mit Generative Adversarial Networks werden Kreationen möglich sein, die sich mit herkömmlichen Methoden nicht mehr als Fälschung erkennen lassen. Bislang wird dafür die Datei darauf hin untersucht, ob Material aus mehreren Quellen kombiniert wurde. Auch Inkonsistenzen liefern zuweilen Verdachtsmomente, etwa ein unmöglicher Lichteinfall. Forensiker überprüfen schliesslich, ob im Video Wetter und Umgebung mit den Gegebenheiten übereinstimmen, die zum angeblichen Aufnahmezeitpunkt am angeblichen Aufnahmeort herrschten.

Mittels künstlicher Intelligenz will man Videos in dem Moment enttarnen, in dem sie ins Web hochgeladen werden. Doch das hat einen gewaltigen Nachteil: Die gleiche künstliche Intelligenz kann auch dazu verwendet werden, die Qualität der Fälschungen zu erhöhen und die Erkennung zu erschweren.

Die Kulturpessimisten warnen denn auch, dass wir den Augen nicht mehr trauen dürfen – und ein «Videobeweis» gar nichts mehr gilt. Das Techmagazin «The Register» zitiert den Entwickler einer Fälschungssoftware, der sich keinen Illusionen hingibt: Mit dem Programm lässt sich beliebig Missbrauch treiben – egal, ob Racheporno, Rufmord oder politische Diskreditierungskampagne.

Lektion auf die harte Tour

Wenn dem bewegten Bild der Nimbus der Unbestechlichkeit jetzt abhandenkommt, dann wird das von manchen beklatscht: Sven Charleer ist Computerwissenschaftler und passionierter Deepfaker. Er schreibt in seinem Blog, das sei «verfluchter Cyberpunk! Ein Spass für die ganze Familie!» Er hat seine Frau in die «Tonight Show» mit Jimmy Fallon hineinmontiert und ihr damit eine «grosse, unschuldige Freude» gemacht: «Und du kannst deine beste Freundin in ihren Lieblingsfilm hineinversetzen: Lass sie mit Patrick Swayze tanzen und ‹the time of her life› haben!»

Charleer hält die Entwicklung für einen heilsamen Schock: «Wir wissen, dass Hollywoodfilme fake sind. Aber alle anderen Videos sollen echt sein?» Schon längst würden Videos und andere Medien gefälscht. Bislang war der Aufwand so gross, dass es sich nur wenige leisten konnten. Mit der Deepfake-Technologie werden die Medienfälschungsmöglichkeit quasi demokratisiert. Den Augen zu misstrauen, werde zunehmend zu einer unverzichtbaren Fähigkeit. Die Deepfakes als Lektion in Medienkompetenz – auf die harte Tour.

So einfach gelangt man in einen Mike-Myers-Film: Donald Trump als Dr. Evil.

In einem gefälschten Video weist Barack Obama auf die Gefahr falscher Videos hin.

Ein Internetscherz: Nicolas Cage spielt jetzt auch in «Herr der Ringe» mit.

Hitler wurde für einen Discovery-Channel-Film digital wiederbelebt. Fotos: PD

Quelle: Newsnetz, Mittwoch, 13. Juni 2018

Rubrik und Tags:

Faksimile
180613 TA Seite 37.pdf

Die Faksimile-Dateien stehen nur bei Artikeln zur Verfügung, die vor mindestens 15 Jahren erschienen sind.

Metadaten
Thema: Newsnetz
Nr: 14814
Ausgabe:
Anzahl Subthemen: 1

Obsolete Datenfelder
Bilder:
Textlänge:
Ort:
Tabb: FALSCH