FrameIntell Logo
Heidelberg University Clinic and Heidelberg University

Die Illusion der Echtheit – KI-Content und seine Wirkung auf soziale Netzwerke

Von Marcel Kückelhaus
30. Juni 2025

a drawing of a bird, the bird is half sketched half real and 3D. The bird is half on the paper, half reals and trying to fly off the paper. the bird is a colorful kingfisherGeneriert via midjourney

"It‘s too warm! It‘s got me sweating like a blind lesbian at a fish market!" – Was passiert, wenn Künstliche Intelligenz unsere Feeds übernimmt?

Es wirkt wie eines jener typischen Videos auf Instagram: Eine junge Reporterin interviewt ältere Personen auf der Straße zur momentanen Hitzewelle in Großbritannien, die lustigsten und überraschendsten Antworten werden festgehalten. Das Ergebnis sind fünfunddreißigtausend Likes. Das Auffällige ist, dass alle Antworten unnötig vulgär, ja schon ableistisch und homophob daherkommen. Auf die Frage, wie sie das Wetter heute finde ("How do you find the weather today?"), antwortet eine Frau zwischen sechzig und siebzig Jahren: „Es ist zu warm! Ich schwitze, wie eine blinde Lesbe auf einem Fischmarkt“ ("It‘s too warm! It‘s got me sweating like a blind lesbian at a fish market"). Die Antwort ist absurd und vollständig KI generiert.

Die Entwicklung von generativer Künstlicher Intelligenz schreitet voran. Begonnen bei reinem textlichen Output, über die Generierung von statischen Bildern, sind wir angekommen bei Videos, die vollständig KI generiert sind. Weder die Reporterin, noch die interviewten Rentner*innen im beschriebenen Video sind echt, und dennoch lassen sie sich nur als Fake entlarven, wenn man ganz genau hinschaut. Besonders auffällig sind die asynchronen Lippenbewegungen, die nicht ganz zu dem passen wollen, was gerade gesagt wird. Die Lippen eilen den Wörtern hinterher und das Gesagte ist stark musterhaft. Auch der angebliche TV-Sender, der auf den Mikrofonen abzulesen ist, ist absolut generisch: News und 4 News verweisen auf keinen Sender, den es in Großbritannien gibt und die Reporterinnen ähneln sich wie eine Barbie der nächsten. Dass der Inhalt zu hundert Prozent KI generiert ist, wird in der Videobeschreibung nicht verraten.

Sind diese Videos zwar noch als KI-generiert zu erkennen, ist das längst nicht mehr die Regel. Bereits 2020 hält eine Studie fest, dass in 75,5 Prozent aller Fälle, die Probanden ein Deep-Fake1 nicht mit absoluter Sicherheit erkennen konnten.2 Eine weitere Studie von 2024 zeigt, dass Probanden nur mit einer Wahrscheinlichkeit von 50 Prozent echte von synthetischen Medien unterscheiden können: Das Erkennen von KI-generierten Inhalten ist demnach kaum mehr als ein Zufall – oder wie die Autor*innen der Studie es formulieren: „As good as a coin toss.“3 Grundlage dieser Aussage ist eine umfassende Wahrnehmungsstudie mit 1276 Teilnehmenden, in der überprüft wurde, wie gut Menschen zwischen authentischen und synthetischen Bildern, Audiodateien, Videos und audiovisuellen Inhalten unterscheiden können. Um möglichst realitätsnahe Ergebnisse zu erzielen, wurden die Tests unter Bedingungen durchgeführt, die typischen Nutzungssituationen auf Online-Plattformen nachempfunden waren.

Welche Bilder sind echt? Mit den richtigen Prompts sind schon jetzt KI-generierte Bilder nicht mehr von echten Aufnahmen zu unterscheiden.

a young man, white, glasses with a narrow white and golden frame, slight curly hair and blue eyes, slim and attractive face, dimples. He rinks tea from a cup. A small sailing boat sails on the surface, the background is blurry. The setting is outdoor in a café. sunny day
Generiert via midjourney
a young man, white, glasses with a narrow white and golden frame, slight curly hair and blue eyes, slim and attractive face, dimples. He is reading a book with a golden octopus on the cover. The man is levitating with crossed legs in the middle of a square. Other people are walking by in the background.
Generiert via midjourney

KI generierter Inhalt auf Social Media nimmt stetig zu. In Brasilien schlägt zur Zeit der KI-Charakter Marisa Maiô Wellen: eine dicke Frau mit Bob-Haarschnitt, bekleidet nur mit einem schwarzen Badeanzug und Absatzschuhen. Sie ist Moderatorin einer Talkshow – eine Talkshow, die ebenfalls vollständig KI generiert ist. Dahinter steht das Programm Veo3 von Google, das es erlaubt, durch Prompten, wie man es schon von Gemini, ChatGPT etc. kennt, Videos zu erstellen. Neben der Schwierigkeit Fakes von echten Videos zu erkennen, kommen nun weitere Probleme hinzu. Zum Beispiel, wenn es um das Copy Right von KI-generierten Inhalten geht. So wurde Marisa Maiô von Raony Phillips erfunden, doch gehört sie ihm auch? Die Verwendung von generativer Künstlicher Intelligenz in Text, Bild und Video wirft nicht nur ethische Fragen auf, sondern auch rechtliche. Darf nun jeder ein Video mit Marisa Maiô erstellen, wenn er oder sie herausfindet, wie der richtige Prompt für sie lautet? Oder liegt das Copyright bei Google? Es scheint, dass nicht nur Verbraucher*innen, sondern auch Künstler*innen zunehmend in die Bredouille geraten.

Vollständig KI-generiert: Die Talkshow-Host Marisa Maiô und das Publikum.

KI
Quelle: Thttps://oglobo.globo.com/

Besonders problematisch wird es dort, wo KI-Inhalte nicht als solche gekennzeichnet sind. Wenn sich Fake- von echtem Bild-, Video- oder Tonmaterial nicht mehr unterscheiden lässt, kann gezielte Desinformation unbemerkt wirken und das Vertrauen in authentische Quellen untergraben. Manchmal erscheint es noch einfach, KI-generierte Inhalte zu erkennen – etwa bei der Schnecke auf der linken Seite, die so wohl nur bei Alice im Wunderland existiert. Aber wie könnte man mit Sicherheit ausschließen, dass es sich bei dem rechten Bild nicht ebenfalls um ein KI-Bild handelt? Bisherige Prognosen lassen vermuten, dass wir uns in Zukunft nicht mehr sicher zwischen Fake und echtem digitalen Material unterscheiden können – selbst mit Hilfe anderer KI. Was wir dann tun werden, bietet sicher genug Diskussionsstoff für die nächsten Jahre.

Welche Schnecke ist die echte? Gibt es überhaupt eine echte Schnecke?

a snail with a yellow shell on a green leaf. The shell has a door with a doorknob and on top is a chimney. Close up, blurry background
Generiert via midjourney
a snail with a yellow shell on a green leaf. Close up, blurry background.
Generiert via midjourney

  1. Deepfakes sind täuschend echte Medieninhalte – meist Videos oder Audiodateien – die mithilfe von Künstlicher Intelligenz erstellt oder manipuliert wurden. Dabei werden beispielsweise Gesichter in Videos ausgetauscht oder Stimmen imitiert, sodass es wirkt, als hätte eine reale Person etwas gesagt oder getan, was in Wirklichkeit nie passiert ist. Die Technologie dahinter basiert auf sogenannten „Deep Learning“-Verfahren, einer Form des maschinellen Lernens, die besonders gut darin ist, Muster in großen Datenmengen zu erkennen und nachzuahmen. ↩︎
  2. Korshunov, Pavel/Marcel, Sébastien (2020): Deepfake detection: humans vs. machines, http://arxiv.org/pdf/2009.03155v1.: „The subjective evaluation demonstrated that people are consistent in the way the perceive different types of deepfakes. Also, the results show that people are confused by good quality deepfakes in 75.5% of cases.“ ↩︎
  3. Di Cooke/Edwards, Abigail/Barkoff, Sophia/Kelly, Kathryn (2024): As Good As A Coin Toss: Human detection of AI-generated images, videos, audio, and audiovisual stimuli, http://arxiv.org/pdf/2403.16760.“ ↩︎

Menu

  • Project Information
  • News
  • Events
  • Publications
  • Team

Get in touch

For more details and collaboration, please use the following information

  • Physiology (PI):
    Prof. Dr. Andreas Draguhn
  • History and Ethics of Medicine (PI):
    Dr. phil. Nadia Primc
  • Computer Science (PI):
    Prof. Dr. Michael Gertz
  • Linguistics (PI):
    Prof. Dr. Ekkehard Felder

General issues / administration

  • Susanne Bechtel
  • +49-6221-544056

Supported by:

BMBF Logo

Legal

  • Imprint
  • Data Protection

© All rights reserved. Project Logo: Canva. Images: Flaticon. Website Design: HTML5 UP.