Mi.. Nov. 12th, 2025

Was Sie vor der Nutzung von OpenAIs Sora oder Metas Vibes wissen sollten
Von Jurgita Lapienytė

KI-Videogeneratoren werden immer beliebter, auch weil sie so einfach und intuitiv zu bedienen sind. Nutzer sind nach wie vor fasziniert von den Möglichkeiten dieser Software. Sie experimentieren damit und teilen die Ergebnisse auf ihren Social-Media-Profilen. Infolgedessen sehen wir bereits viele Deepfake-Inhalte auf verschiedenen sozialen Plattformen.

Viele Menschen – insbesondere weniger technisch versierte Nutzer – fallen auf gefälschte Bilder herein. Obwohl diese Tools spielerisch und harmlos sein können, öffnen sie auch die Tür für die Manipulation gefährdeter Personen und die Bombardierung mit Fehlinformationen und Betrug.

Tools renommierter Unternehmen wie OpenAI und Meta verfügen über integrierte Schutzmechanismen, um Missbrauch und Ausnutzung zu verhindern. Sie können jedoch gejailbreakt und für bösartige Kampagnen missbraucht werden.

Reale Bilder und Videos können in verschiedene KI-Generatoren eingespeist werden, um Deepfakes zu erstellen und Personen zu erpressen. Dies ist bereits ein weit verbreitetes Problem in Schulen, wo Jugendliche die Technologie nutzen, um sich gegenseitig zu schikanieren oder zu erpressen.

Es wird immer schwieriger, Fakten von Fiktion zu unterscheiden, insbesondere in den sozialen Medien. Die Verbreitung dieser Tools schafft ein Umfeld, in dem sich Fake News verbreiten können. Deepfakes können sowohl Einzelpersonen als auch die Gesellschaft betreffen – von der Beeinflussung von Wahlergebnissen und Aktienmärkten bis hin zur Schädigung der psychischen Gesundheit und der Beziehungen von Menschen.

Synthetische Medien werden von Bedrohungsakteuren für verschiedene Zwecke eingesetzt, darunter aufwendige und personalisierte Betrugsmaschen wie Business Email Compromise (BEC), Identitätsdiebstahl, der zur Anstellung von Betrügern aus Nordkorea führen kann, und gefälschte Stellenangebote.

Deepfakes sind auf YouTube weit verbreitet. Kriminelle geben sich als Prominente wie Brad Pitt oder Elon Musk aus, um Kryptowährungsbetrug zu fördern, und schaffen es, Hunderte von Menschen zu täuschen, bevor diese Videos entfernt werden.

Wie erkennt man ein gefälschtes Video?
Überprüfen Sie zunächst die Medienquelle. Handelt es sich um ein Nachrichtenvideo, wenden Sie sich an eine seriöse Nachrichtenagentur – diese verfügt über die nötigen Ressourcen, um das Filmmaterial zu verifizieren. Achten Sie genau darauf, wer, welcher Kanal oder welches Profil den Inhalt verbreitet.

Wenn es sich um ein privates Video handelt, das Sie nicht in den Nachrichten finden würden, achten Sie auf einige verräterische Anzeichen. Beobachten Sie zunächst das Gesicht der Person beim Sprechen genau. Achten Sie auf fließende Übergänge zwischen den Gesichtsausdrücken.

Achten Sie genau auf die Haut – ihre Farbe und ob sie unnatürlich glatt oder übermäßig faltig wirkt. Achten Sie immer auf kleinste Details: Schatten, Haare und ob die Bewegungen der Person synchron sind. Zoomen Sie heran und untersuchen Sie Finger, Nägel, Schatten und sichtbaren Text im Bild oder Video genau.

Vertrauen Sie grundsätzlich Ihrem Bauchgefühl. Wenn sich etwas komisch anfühlt, ist es das wahrscheinlich auch. – Živilė Kasparavičiūtė, Cybernews

Englisch

The Bad Side of AI-Generated Videos:
What to Know Before Using OpenAI’s Sora or Meta’s Vibes

By Jurgita Lapienytė

AI video generators are becoming mainstream partly because they are so easy and intuitive to use. Users are still mesmerized by the capabilities of this software. They are experimenting with it and sharing the results on their social media profiles. As a result, we already see a lot of deepfake media on various social platforms. 

Many people – especially less tech‑savvy users – fall for fake imagery. Although these tools can be playful and harmless, they also open a window for manipulating vulnerable people and bombarding them with misinformation and scams.

Tools from reputable companies such as OpenAI and Meta include built‑in guardrails to prevent abuse and exploitation, but they can be jailbroken and exploited in malicious campaigns.

Real images and videos can be fed into various AI generators to produce deepfakes and blackmail individuals. This is already a prevalent problem in schools, where teenagers use the technology to bully or blackmail one another.

It is becoming harder to distinguish fact from fiction, especially on social media. The prevalence of these tools creates an environment in which fake news can spread. Deepfakes can affect both individuals and society – from influencing election outcomes and stock markets to harming people’s mental health and relationships.

Synthetic media is being deployed by threat actors for various purposes, including elaborate and personalized business email compromise, or BEC, scams, identity theft that can lead to hiring impostors from North Korea, and fake job offers, among other schemes.

Deepfakes are prevalent on YouTube. Criminals impersonate celebrities by Brad Pitt or Elon Musk to promote cryptocurrency scams and manage to fool hundreds of people before those videos are taken down.

How can people spot the signs of a fake video?

First, verify the source of the media. If it’s a news video, check with a reputable news organization – they have the resources to verify footage. Pay close attention to who or what channel or profile is spreading the content.

If it’s a personal video that you wouldn’t find in the news, look for a few telltale signs. First, closely observe the face while the person speaks. Note whether transitions between expressions are smooth.

Pay close attention to the skin – its color and whether it appears unnaturally smooth or overly wrinkled. Always check the smallest details: shadows, hair, and whether movement is in sync when a person moves. Zoom in and examine fingers and nails, shadows, and closely inspect any text visible in the image or video.

Generally, trust your gut. If something feels off, it probably is. – Živilė Kasparavičiūtė, Cybernews

Kommentar verfassen