Das Foto vom Papst in weißer Daunenjacke ging ebenso um die Welt wie das Foto von Donald Trump, der sich seiner vermeintlichen Verhaftung widersetzt und von Polizisten weggetragen wird. Doch, was echt aussieht, ist „fake“. Aber nicht nur Fotos, auch Telefonanrufe oder Videocalls können echt wirken und doch unecht sein. Davon weiß auch Franziska Giffey, ehemals regierende Bürgermeisterin von Berlin, ein Lied zu singen. Ihr Video-Call mit Vitali Klitschko stellte sich im Nachgang ebenfalls als „Fake-Anruf“ heraus.
Deepfakes sind manipulierte oder gefälschte Medieninhalte, die mithilfe künstlicher Intelligenz (KI) erstellt wurden, insbesondere durch Techniken des maschinellen Lernens, wie zum Beispiel der sogenannten Generative Adversarial Networks (GANs). Diese Technologie ermöglicht es, realistische Audio- oder Videodateien zu erzeugen, in denen Personen etwas tun oder sagen, was sie tatsächlich nie gesagt oder getan haben.
Im Kontext von Videos können Deepfakes beispielsweise Gesichter von Personen in Aufnahmen austauschen, um den Eindruck zu erwecken, dass jemand anderes die Aussagen tätigt oder Handlungen ausführt. Die Technologie kann auch verwendet werden, um Schauspieler in alten Filmen erscheinen zu lassen, in denen sie nie mitgewirkt haben.
Bei einer Befragung im Auftrag des Digitalverbandes Bitkom sagten 81 Prozent, sie würden Deepfakes nicht erkennen. Da die gefälschten Inhalte oft sehr realistisch aussehen, ist es in der Tat sehr schwierig, sie von authentischen Medieninhalten zu unterscheiden, insbesondere für ungeschulte Augen. Daraus ergibt sich ein Folgeproblem: Der Vertrauensverlust in digitale Medien wie Fotos und Videos. So gaben 70 Prozent der Befragten an, Fotos und Videos könne man heute nicht mehr trauen und 63 Prozent gaben sogar an, Deepfakes machten ihnen Angst.
Dass Deepfakes nicht ausschließlich negativ sind, glaubten immerhin 55 Prozent der Befragten. Ihrer Meinung nach könnten sie sinnvoll genutzt werden, etwa im Kino oder in der Kunst. „Die Retusche ist so alt wie die Fotografie und seit jeher werden Audios und Videos bearbeitet und verändert. Solche Eingriffe waren früher hochspezialisierten Experten vorbehalten, heute können sie mit wenigen Klicks auch ohne entsprechende Vorbildung erzeugt werden. Umso wichtiger ist es, Bewusstsein für dieses Phänomen zu schaffen und die Menschen dafür zu sensibilisieren“, sagt Bitkom-Hauptgeschäftsführer Dr. Bernhard Rohleder.
Die Herausforderung besteht also darin, die Technologie verantwortungsbewusst einzusetzen und mögliche Missbräuche zu erkennen und zu bekämpfen, um die Integrität von Informationen und die Sicherheit der Gesellschaft zu schützen.