| schema:text
| - Keine echten Videos
Fehlerhaft generierter Rollator entlarvt KI-Fake
1.4.2026, 09:27 (CEST)
Mit Künstlicher Intelligenz erstellte Videos, die Menschen zeigen, sind mittlerweile Alltag. Manchmal sind es nur noch kleine Details, anhand derer man erkennt, ob ein Video die Realität abbildet oder nicht. In Social Media gehen beispielsweise seit einiger Zeit Videos um, die Rentner bei einer Straßenumfrage zeigen sollen. Die angeblich wirklich existierenden Personen berichten darin von ihrer sozialen Lage. «Ich bekomm knapp 800 Euro Rente», sagt ein alter Mann in einem der Videos. In einem anderen Video zeigt eine alte Frau vier Münzen und sagt: «Ich weiß nicht, wie ich damit auskommen soll.»
Bewertung
Die Videos sind nicht echt. Sie wurden mit Künstlicher Intelligenz (KI) erstellt.
Fakten
Mehrere kleine Fehler in den Details zeigen, dass es sich um keine realen Situationen handelt.
Zum ersten Video mit den Männern
Etwa bei Sekunde 10 kommt von rechts im Hintergrund eine Person ins Bild. Es scheint, also benutze sie einen Rollator, doch das Gerät schaut unvollständig aus und verschwimmt im Gehen teilweise mit dem Körper der Person. Dazu entsteht am Rollator auf einmal eine weitere Stütze mit einem Rad. Die Person verschwindet im Bild hinter dem Kopf des sprechenden Mannes, taucht dann aber nicht mehr auf. Auffällig ist zudem die Kleidung der Person, Jacke und Hose gehen scheinbar ineinander über.
-
Etwa bei Sekunde 5 geht eine Person im Hintergrund in dem Laden direkt auf die Schiebetür zu, doch die Tür öffnet sich nicht, obwohl die Person sehr nah steht. Die Person stoppt nicht, sondern geht übergangslos weiter und verschwindet.
-
Im Hintergrund steht außerdem eine Reihe von Einkaufswagen - es wirkt an einer Stelle, als wären dabei mehrere Wagen immer enger zusammengesteckt als eigentlich möglich. Dabei verschwimmt auch die Textur.
-
Solche Fehler sind typische für Deepfakes - Audio- oder Videoaufnahmen, die auf den ersten Blick authentisch wirken, jedoch mithilfe von Künstlicher Intelligenz erzeugt wurden.
Zum Video mit der Frau
Die Frau zeigt eine vollständig silbern gefärbte Münze - diese Variante gibt es in der Form nicht in Deutschland. Beim 1-Euro-Stück ist der Rand bronzefarben, beim 2-Euro-Stück ist nur der Rand silbern.
-
Die Lippenbewegungen der Frau wirken mechanisch und unnatürlich.
-
Im Hintergrund steht ein Einkaufswagen, der deformiert aussieht.
-
Auf dem Roten Werbeplakat links im Bild verschwimmt die Schrift in ihrem Verlauf zum Plakatrand hin.
-
Offensichtlich stammen die Videos von einem TikTok-Kanal - dort gibt es viele weitere Videos mit ähnlichen Fehlern. Der Kanal gibt nicht an, inwiefern er mit KI arbeitet. TikTok schreibt seinen jedoch Nutzern vor, dass «alle KI-generierten Inhalte» eigentlich «als solche zu kennzeichnen» sind.
(Stand: 27.3.26)
Links
Post (archiviert) (Video archiviert)
Weiterer Post mit Video (archiviert) (Video archiviert)
Bundeszentrale für politische Bildung zu Deepfakes (archiviert)
Onlinesicherheit.at zu KI-Inhalten (archiviert)
Euro-Münzen in Deutschland (archiviert)
Über dpa-Faktenchecks
Dieser Faktencheck wurde im Rahmen des Facebook/Meta-Programms für unabhängige Faktenprüfung erstellt. Ausführliche Informationen zu diesem Programm finden Sie hier.
Erläuterungen von Facebook/Meta zum Umgang mit Konten, die Falschinformationen verbreiten, finden Sie hier.
Wenn Sie inhaltliche Einwände oder Anmerkungen haben, schicken Sie diese bitte mit einem Link zu dem betroffenen Facebook-Post an faktencheck@dpa.com. Nutzen Sie hierfür bitte die entsprechenden Vorlagen. Hinweise zu Einsprüchen finden Sie hier.
Schon gewusst?
Wenn Sie Zweifel an einer Nachricht, einer Behauptung, einem Bild oder einem Video haben, können Sie den dpa-Faktencheck auch per WhatsApp kontaktieren. Weitere Informationen dazu finden Sie hier.
|