
“A szélhámosok eszköze”: MI-deepfake-ekkel reklámoznak hamis szexuális gyógymódokat
- Megjelent: 2025. május 14., 15:11
- 3 perces olvasmány
- Szerző: Anuj CHOPRA, AFP Egyesült Államok
- Fordítás és adaptáció: AFP Hungary
Szerzői jog © AFP 2017–2025. A tartalom kereskedelmi célú felhasználásához előfizetés szükséges. Kattintson ide, ha többet szeretne megtudni.
A generatív mesterséges intelligencia térnyerése megkönnyítette – és anyagilag jövedelmezőbbé tette – az ilyen videók tömeges előállítását, amelyek minimális emberi beavatkozással készülnek, és gyakran hamis vagy akár veszélyes termékeket népszerűsítenek deepfake-kel megjelenített hírességek segítségével.
Egyes TikTok-videókban a sárgarépa a férfi nemi szervek eufemizmusaként jelenik meg – feltehetően azért, hogy elkerüljék a tartalom eltávolítását szexuálisan explicit nyelvezet miatt.
„Látni fogod, hogy a répád megnőtt” – mondja robothangon az egyik videóban a férfi, miközben egy internetes vásárlási oldalra irányítja a nézőket.
„Ez a termék megváltoztatja az életedet” – teszi hozzá, bizonyíték nélkül állítva, hogy a benne lévő gyógynövények növelik a tesztoszteronszintet, és „az egekbe repítik” az energiaszintet.
A San Franciscó-i Resemble AI szerint a videót mesterséges intelligencia hozta létre. A szervezet, amely nemrég deepfake-detektáló szolgáltatást indított, megosztotta eredményeit az AFP-vel.
„Ahogy ebben a példában is látható, a félrevezető, mesterséges intelligenciával készült tartalmakat arra használják, hogy eltúlzott vagy megalapozatlan állításokkal adjanak el étrend-kiegészítőket – ezzel potenciálisan veszélyeztetve a fogyasztók egészségét” – mondta az AFP-nek Zohaib Ahmed, a Resemble AI vezérigazgatója és társalapítója.
„Azt látjuk, hogy az MI által generált tartalmakat egyre gyakrabban vetik be félretájékoztatás céljából” – tette hozzá Ahmed.
„Olcsó módszer”
A módszer terjedése jól mutatja, hogyan ágyaz meg a mesterséges intelligencia gyors fejlődése annak, amit a kutatók MI-disztópiának neveznek: egy megtévesztő internetes világ létrejöttének, amely kétes hatékonyságú termékek vásárlására próbálja rávenni a gyanútlan felhasználókat.
Ide tartoznak a megalapozatlan – és egyes esetekben veszélyes – étrend-kiegészítők, fogyókúrás szerek és szexuális csodaszerek egyaránt.
„A mesterséges intelligencia hasznos eszköz azoknak a szélhámosoknak, akik nagy mennyiségű szeméttartalmat akarnak előállítani alacsony költséggel” – mondta Abbie Richards dezinformáció-kutató az AFP-nek.
„Ez egy olcsó módja annak, hogy hirdetéseket gyártsanak” – tette hozzá.
Alexios Mantzarlis, a Cornell Tech „Security, Trust, and Safety Initiative” (Biztonság, Bizalom és Védelem Kezdeményezés) igazgatója megvizsgálta azokat a TikTok-videókat, amelyekben „MI-orvos” avatárok és szintetikusan generált hangok ajánlanak kétséges hatékonyságú kezeléseket szexuális problémákra.
Egyes, milliós megtekintésű videók olyan házi „tesztoszteron-fokozó főzeteket” hirdetnek, amelyek citromból, gyömbérből és fokhagymából készülnek.
Ami még aggasztóbb: a mesterséges intelligencia gyors fejlődése lehetővé tette hírességek deepfake-megjelenítését is – többek között Amanda Seyfried vagy Robert De Niro arcával.
„A férjednek nem áll fel?” – ezt a kérdést teszi fel látszólag Anthony Fauci, a Nemzeti Allergia- és Fertőző Betegségek Intézetének korábbi igazgatója egy prosztatára ható étrend-kiegészítőt reklámozó TikTok-videóban.
A felvétel azonban deepfake, amely Fauci képmását használja.
„Ártalmas módszer”
Sok manipulált videó meglévő képsorokat használ, alájuk mesterséges hangot illesztenek, majd módosítják a szájmozgást, hogy illeszkedjen az új hangsávhoz.
„A hírességekkel készült videók különösen károsak, mivel tovább gyengítik az emberek azon képességét, hogy megkülönböztessék a hiteles online tartalmat a hamistól” – mondta Mantzarlis.
Tavaly Mantzarlis több száz olyan YouTube-hirdetést azonosított, amelyekben deepfake-hírességek – köztük Arnold Schwarzenegger, Sylvester Stallone és Mike Tyson – erekciós zavarokra ajánlott étrend-kiegészítőket reklámoztak.
A rövid formátumú mesterséges intelligenciás videók gyors előállítása miatt még ha a közösségi oldalak el is távolítják a problémás tartalmakat, azok újra és újra megjelennek némileg módosított formában – így a moderálás soha véget nem érő játékká válik.
A kutatók szerint ez példátlan kihívásokat támaszt az MI által generált tartalmak ellenőrzésével szemben, és innovatív megoldásokat, kifinomultabb felismerő eszközöket igényel.
Az AFP tényellenőrzői több alkalommal is lelepleztek Facebook-hirdetéseket, amelyek például a merevedési zavarok „gyógymódját” hirdették Ben Carson idegsebész – az amerikai kormány korábbi tagja – képmásával.
Ennek ellenére sok felhasználó fenntartás nélkül elfogadja a hírességek termékajánlásait – ez is mutatja, miért annyira vonzó eszköz a deepfake a csalásokban.
„Csalásra használt affiliate marketing kampányok és kétes hatékonyságú szexuális segédeszközök azóta léteznek, mióta az internet megszületett – sőt már azelőtt is” – mondta Mantzarlis.
„Mint minden más visszaélés az interneten, a generatív MI ezeket is gyorsabbá és olcsóbbá tette ipari méretekben” – tette hozzá a szakember.
Van olyan tartalom, amelyet szeretne ellenőrizni az AFP tényellenőrzésén keresztül?
Lépjen kapcsolatba velünk