Die Illusion der Echtheit – KI-Content und seine Wirkung auf soziale Netzwerke
Von Marcel Kückelhaus
30. Juni 2025

Es wirkt wie eines jener typischen Videos auf Instagram: Eine junge Reporterin interviewt ältere Personen auf der Straße zur momentanen Hitzewelle in Großbritannien, die lustigsten und überraschendsten Antworten werden festgehalten. Das Ergebnis sind fünfunddreißigtausend Likes. Das Auffällige ist, dass alle Antworten unnötig vulgär, ja schon ableistisch und homophob daherkommen. Auf die Frage, wie sie das Wetter heute finde ("How do you find the weather today?"), antwortet eine Frau zwischen sechzig und siebzig Jahren: „Es ist zu warm! Ich schwitze, wie eine blinde Lesbe auf einem Fischmarkt“ ("It‘s too warm! It‘s got me sweating like a blind lesbian at a fish market"). Die Antwort ist absurd und vollständig KI generiert.
Die Entwicklung von generativer Künstlicher Intelligenz schreitet voran. Begonnen bei reinem textlichen Output, über die Generierung von statischen Bildern, sind wir angekommen bei Videos, die vollständig KI generiert sind. Weder die Reporterin, noch die interviewten Rentner*innen im beschriebenen Video sind echt, und dennoch lassen sie sich nur als Fake entlarven, wenn man ganz genau hinschaut. Besonders auffällig sind die asynchronen Lippenbewegungen, die nicht ganz zu dem passen wollen, was gerade gesagt wird. Die Lippen eilen den Wörtern hinterher und das Gesagte ist stark musterhaft. Auch der angebliche TV-Sender, der auf den Mikrofonen abzulesen ist, ist absolut generisch: News und 4 News verweisen auf keinen Sender, den es in Großbritannien gibt und die Reporterinnen ähneln sich wie eine Barbie der nächsten. Dass der Inhalt zu hundert Prozent KI generiert ist, wird in der Videobeschreibung nicht verraten.
Sind diese Videos zwar noch als KI-generiert zu erkennen, ist das längst nicht mehr die Regel. Bereits 2020 hält eine Studie fest, dass in 75,5 Prozent aller Fälle, die Probanden ein Deep-Fake1 nicht mit absoluter Sicherheit erkennen konnten.2 Eine weitere Studie von 2024 zeigt, dass Probanden nur mit einer Wahrscheinlichkeit von 50 Prozent echte von synthetischen Medien unterscheiden können: Das Erkennen von KI-generierten Inhalten ist demnach kaum mehr als ein Zufall – oder wie die Autor*innen der Studie es formulieren: „As good as a coin toss.“3 Grundlage dieser Aussage ist eine umfassende Wahrnehmungsstudie mit 1276 Teilnehmenden, in der überprüft wurde, wie gut Menschen zwischen authentischen und synthetischen Bildern, Audiodateien, Videos und audiovisuellen Inhalten unterscheiden können. Um möglichst realitätsnahe Ergebnisse zu erzielen, wurden die Tests unter Bedingungen durchgeführt, die typischen Nutzungssituationen auf Online-Plattformen nachempfunden waren.
Welche Bilder sind echt? Mit den richtigen Prompts sind schon jetzt KI-generierte Bilder nicht mehr von echten Aufnahmen zu unterscheiden.


KI generierter Inhalt auf Social Media nimmt stetig zu. In Brasilien schlägt zur Zeit der KI-Charakter Marisa Maiô Wellen: eine dicke Frau mit Bob-Haarschnitt, bekleidet nur mit einem schwarzen Badeanzug und Absatzschuhen. Sie ist Moderatorin einer Talkshow – eine Talkshow, die ebenfalls vollständig KI generiert ist. Dahinter steht das Programm Veo3 von Google, das es erlaubt, durch Prompten, wie man es schon von Gemini, ChatGPT etc. kennt, Videos zu erstellen. Neben der Schwierigkeit Fakes von echten Videos zu erkennen, kommen nun weitere Probleme hinzu. Zum Beispiel, wenn es um das Copy Right von KI-generierten Inhalten geht. So wurde Marisa Maiô von Raony Phillips erfunden, doch gehört sie ihm auch? Die Verwendung von generativer Künstlicher Intelligenz in Text, Bild und Video wirft nicht nur ethische Fragen auf, sondern auch rechtliche. Darf nun jeder ein Video mit Marisa Maiô erstellen, wenn er oder sie herausfindet, wie der richtige Prompt für sie lautet? Oder liegt das Copyright bei Google? Es scheint, dass nicht nur Verbraucher*innen, sondern auch Künstler*innen zunehmend in die Bredouille geraten.
Vollständig KI-generiert: Die Talkshow-Host Marisa Maiô und das Publikum.

Besonders problematisch wird es dort, wo KI-Inhalte nicht als solche gekennzeichnet sind. Wenn sich Fake- von echtem Bild-, Video- oder Tonmaterial nicht mehr unterscheiden lässt, kann gezielte Desinformation unbemerkt wirken und das Vertrauen in authentische Quellen untergraben. Manchmal erscheint es noch einfach, KI-generierte Inhalte zu erkennen – etwa bei der Schnecke auf der linken Seite, die so wohl nur bei Alice im Wunderland existiert. Aber wie könnte man mit Sicherheit ausschließen, dass es sich bei dem rechten Bild nicht ebenfalls um ein KI-Bild handelt? Bisherige Prognosen lassen vermuten, dass wir uns in Zukunft nicht mehr sicher zwischen Fake und echtem digitalen Material unterscheiden können – selbst mit Hilfe anderer KI. Was wir dann tun werden, bietet sicher genug Diskussionsstoff für die nächsten Jahre.
Welche Schnecke ist die echte? Gibt es überhaupt eine echte Schnecke?


- Deepfakes sind täuschend echte Medieninhalte – meist Videos oder Audiodateien – die mithilfe von Künstlicher Intelligenz erstellt oder manipuliert wurden. Dabei werden beispielsweise Gesichter in Videos ausgetauscht oder Stimmen imitiert, sodass es wirkt, als hätte eine reale Person etwas gesagt oder getan, was in Wirklichkeit nie passiert ist. Die Technologie dahinter basiert auf sogenannten „Deep Learning“-Verfahren, einer Form des maschinellen Lernens, die besonders gut darin ist, Muster in großen Datenmengen zu erkennen und nachzuahmen. ↩︎
- Korshunov, Pavel/Marcel, Sébastien (2020): Deepfake detection: humans vs. machines, http://arxiv.org/pdf/2009.03155v1.: „The subjective evaluation demonstrated that people are consistent in the way the perceive different types of deepfakes. Also, the results show that people are confused by good quality deepfakes in 75.5% of cases.“ ↩︎
- Di Cooke/Edwards, Abigail/Barkoff, Sophia/Kelly, Kathryn (2024): As Good As A Coin Toss: Human detection of AI-generated images, videos, audio, and audiovisual stimuli, http://arxiv.org/pdf/2403.16760.“ ↩︎