Screenshot von eines TikTok-Postings mit einem KI-erzeugten Video
Kontext

Mithilfe von KI gefälschte Videos Das Ende der Wirklichkeit?

Stand: 06.06.2025 07:26 Uhr

Ge- oder verfälschte Videos gibt es im Internet, seitdem im Netz bewegte Bilder übertragen werden können. Durch Anwendung Künstlicher Intelligenz hat die Verbreitung von Fake-Videos jedoch eine neue Dimension erreicht.

SCHWARZWALD: ZWEI ZÜGE FRONTAL ZUSAMMENGEPRALLT! MINDESTENS 22 T*TE - FEHLER IM STELLWERK! So macht ein Video auf TikTok auf. Entsprechend sind die Kommentare zu den sensationslüsternen Bildern der angeblichen Unglückstelle: "Wo bleiben die reporter u die Nachrichten im Radio oder Fernsehen?" "In Deutschland gibt es keine Ordnung mehr..." "Ein Fach furchtbar unsere Infrastruktur liegt argen weil kein Geld mehr investiert wird" (sic!)

Sie nennen sich promi.news.de, Hot Headlines oder Fact Flash News, ähneln sich auffällig im Design ihrer Videos. Obwohl die Accounts oft nur wenige Tage oder Wochen alt sind, haben sie auf TikTok fünfstellige Followerzahlen. In den Texten, Überschriften und Einblendungen finden sich jede Menge typographische und orthographische Fehler.

Eines haben sie alle gemeinsam: Sie zeigen angeblich "exklusiv" Videos von Unglücken und Attentaten in Deutschland meist mit vielen Opfern. Woanders sind keine Berichte über diese zu finden - aus gutem Grund: Sie haben nie stattgefunden.

Screenshot eines Videos auf TikTok von factflashnews

Rechtschreibfehler, unrealistische Bilder - trotzdem werden die Fakevideos zigtausendfach abgerufen und oft für echt gehalten, wie die Kommentare zeigen.

Fakevideo-Flut durch Künstliche Intelligenz

Wurden früher für Fake-Videos andere Inhalte in einen neuen Kontext gesetzt oder sogar Szenen aus Videospielen oder Spielfilmen als Realität ausgegeben, vereinfacht Künstliche Intelligenz (KI) die Herstellung solcher Fälschungen massiv. Darüber spricht eine ebenfalls KI-generierte Stimme einen Text, der offenbar ebenfalls von einer Künstlichen Intelligenz erstellt wurde.

Nur selten findet man den Hinweis, dass es sich um KI-generierte Beiträge handelt. Trotzdem werden diese Videos massiv geteilt. Über die Urheber erfährt man nichts, teilweise verschwinden die Accounts schon nach wenigen Tagen oder Wochen.

Noch sind solche KI-Videos teils schnell zu erkennen - an den typischen Fehlern wie falschen Verkehrsschildern, Beschriftungen und Werbetafeln, anatomischen Fehlern oder Gebäuden, die nur wenig Ähnlichkeit mit denen am vermeintlichen Unglücksort haben. KI-Systeme wie Googles neue Video-KI Veo 3 ermöglichen es inzwischen jedoch, auch ohne technische Kenntnisse extrem realistische Videos zu erstellen.

Rechtlich nur wenige Einschränkungen

Wie kann das legal sein? In Deutschland ist die Meinungsfreiheit sehr weit gefasst.Trotzdem gibt es auch hier rechtliche Grenzen, wie Anna Bernzen, Professorin für Bürgerliches Recht, Wirtschaftsrecht und Recht der Digitalisierung an der Universität Regensburg, dem ARD-faktenfinder erläutert: "Bewusst unwahre Tatsachenbehauptungen sind nie von der Meinungsfreiheit gedeckt, egal ob sie von einem Menschen stammen oder mithilfe einer KI generiert werden."

Trotzdem seien Videos, die KI-generierte Totalfälschungen enthalten, nicht per se strafbar oder zivilrechtlich angreifbar. "Es kommt darauf an, was auf den Videos zu sehen ist." Wenn ein Video zum Beispiel falsche Behauptungen über eine bestimmte Person enthält, könne eine strafbare üble Nachrede oder Verleumdung vorliegen, so Bernzen. "Die betroffene Person kann sich dann gestützt auf ihr allgemeines Persönlichkeitsrecht auch zivilrechtlich dagegen wehren. Sie kann insbesondere verlangen, dass das Video aus dem Netz genommen wird."

Schwieriger sei es dagegen, wenn das Video ohne Bezug zu konkreten Personen einfach ein Ereignis zeigt, das tatsächlich nicht stattgefunden hat. "Das kann im Einzelfall einen Straftatbestand erfüllen, zum Beispiel den der Volksverhetzung, wenn das Video zum Hass gegen eine bestimmte Gruppe aufstacheln soll. Zwingend ist das aber nicht."

TikTok schweigt

Die Plattformbetreiber verdienen mit daran, sehen sich dabei offenbar nicht in der Verantwortung. So hat TikTok zwar Richtlinien für bearbeitete Medien und KI-generierte Inhalte und verlangt, dass solche gekennzeichnet werden, sofern realistisch wirkende Szenen oder Personen zeigen. Zudem sind Inhalte, "die gefälschte autoritative Quellen oder Krisenereignisse teilen oder zeigen, oder Personen des öffentlichen Lebens in bestimmten Zusammenhängen falsch darstellen" verboten.

Mehrere vom ARD-faktenfinder über die Plattform gemeldeten Fake-Videos, die diese Kriterien erfüllen, wurden jedoch nicht gelöscht. Erst nach einer offiziellen Presseanfrage verschwanden sie von TikTok - nicht jedoch andere auf denselben Kanälen veröffentlichte Fakes.

Der ARD-faktenfinder hat bei TikTok angefragt, was die Plattform aktiv gegen solche Videos, die die Community-Richtlinien verletzen, unternimmt und warum diese zunächst nicht gelöscht wurden, nachdem das Unternehmen über die Meldefunktion davon Kenntnis erhielt. Eine zunächst angekündigte Stellungnahme von TikTok gegenüber dem ARD-faktenfinder blieb bisher aus.

"Für KI-generierte Totalfälschungen haften zunächst die Personen, die diese Videos posten", erklärt Bernzen. "Die Plattformbetreiber sind aber gesetzlich verpflichtet, ihren Nutzerinnen und Nutzern die Möglichkeit zu geben, ihnen rechtswidrige Inhalte zu melden." Wenn ein Video so gemeldet werde, müsse der Plattformbetreiber es überprüfen und löschen, wenn er zu dem Schluss komme, dass es gegen das Gesetz verstößt.

Bundesregierung plant verstärkte Medienaufsicht

Die Bundesregierung hat angekündigt, vermehrt gegen solche Fakes vorzugehen.Im Koalitionsvertrag heißt es:

Gezielte Einflussnahme auf Wahlen sowie inzwischen alltägliche Desinformation und Fake News sind ernste Bedrohungen für unsere Demokratie, ihre Institutionen und den gesellschaftlichen Zusammenhalt. Die bewusste Verbreitung falscher Tatsachenbehauptungen ist durch die Meinungsfreiheit nicht gedeckt. Deshalb muss die staatsferne Medienaufsicht unter Wahrung der Meinungsfreiheit auf der Basis klarer gesetzlicher Vorgaben gegen Informationsmanipulation sowie Hass und Hetze vorgehen können.

Kritiker sehen darin die Gefahr, dass eine Art "Zensurbehörde" oder "Wahrheitsministerium" entstehen könnte. Für die Juristin Bernzen ist die Absichtserklärung der Bundesregierung jedoch noch sehr abstrakt. "Ich bin gespannt, was sie genau tun will, um gegen Informationsmanipulation vorzugehen."

Hilfreich könne es sein, Regelungen für KI-generierte Totalfälschungen aufzustellen, die sich nicht auf eine konkrete Person beziehen, so Bernzen. "Dagegen kann nach dem geltenden Recht nämlich nicht immer wirksam vorgegangen werden, obwohl diese Fälschungen eine große Gefahr für die öffentliche Meinungsbildung darstellen."

Dieses Thema im Programm: Über dieses Thema berichtete SWR RP am 12. Februar 2025 um 04:15 Uhr in "Landesschau Rheinland-Pfalz".