Ez az illusztrációs fotó egy TikTok-fiókból származó képeket mutat, amelyek napi étrend-kiegészítőket reklámoznak. (AFP / Chris DELMAS)

“A szélhámosok eszköze”: MI-deepfake-ekkel reklámoznak hamis szexuális gyógymódokat

Egy izmos, meztelen felsőtestű férfi túlméretezett répát tartva olyan étrend-kiegészítőt reklámoz, amely szerinte képes megnagyobbítani a férfi nemi szervet – ez csak egy a TikTokon található számtalan mesterséges intelligencia által generált videó közül, amelyek tudományos alapot nélkülöző, szexuális problémákra kínált kezelésekkel házalnak.

A generatív mesterséges intelligencia térnyerése megkönnyítette – és anyagilag jövedelmezőbbé tette – az ilyen videók tömeges előállítását, amelyek minimális emberi beavatkozással készülnek, és gyakran hamis vagy akár veszélyes termékeket népszerűsítenek deepfake-kel megjelenített hírességek segítségével.

Egyes TikTok-videókban a sárgarépa a férfi nemi szervek eufemizmusaként jelenik meg – feltehetően azért, hogy elkerüljék a tartalom eltávolítását szexuálisan explicit nyelvezet miatt.

„Látni fogod, hogy a répád megnőtt” – mondja robothangon az egyik videóban a férfi, miközben egy internetes vásárlási oldalra irányítja a nézőket.

„Ez a termék megváltoztatja az életedet” – teszi hozzá, bizonyíték nélkül állítva, hogy a benne lévő gyógynövények növelik a tesztoszteronszintet, és „az egekbe repítik” az energiaszintet.

A San Franciscó-i Resemble AI szerint a videót mesterséges intelligencia hozta létre. A szervezet, amely nemrég deepfake-detektáló szolgáltatást indított, megosztotta eredményeit az AFP-vel.

„Ahogy ebben a példában is látható, a félrevezető, mesterséges intelligenciával készült tartalmakat arra használják, hogy eltúlzott vagy megalapozatlan állításokkal adjanak el étrend-kiegészítőket – ezzel potenciálisan veszélyeztetve a fogyasztók egészségét” – mondta az AFP-nek Zohaib Ahmed, a Resemble AI vezérigazgatója és társalapítója.

„Azt látjuk, hogy az MI által generált tartalmakat egyre gyakrabban vetik be félretájékoztatás céljából” – tette hozzá Ahmed.  

„Olcsó módszer”

A módszer terjedése jól mutatja, hogyan ágyaz meg a mesterséges intelligencia gyors fejlődése annak, amit a kutatók MI-disztópiának neveznek: egy megtévesztő internetes világ létrejöttének, amely kétes hatékonyságú termékek vásárlására próbálja rávenni a gyanútlan felhasználókat.

Ide tartoznak a megalapozatlan – és egyes esetekben veszélyes – étrend-kiegészítők, fogyókúrás szerek és szexuális csodaszerek egyaránt.

„A mesterséges intelligencia hasznos eszköz azoknak a szélhámosoknak, akik nagy mennyiségű szeméttartalmat akarnak előállítani alacsony költséggel” – mondta Abbie Richards dezinformáció-kutató az AFP-nek.

„Ez egy olcsó módja annak, hogy hirdetéseket gyártsanak” – tette hozzá.

Alexios Mantzarlis, a Cornell Tech „Security, Trust, and Safety Initiative” (Biztonság, Bizalom és Védelem Kezdeményezés) igazgatója megvizsgálta azokat a TikTok-videókat, amelyekben „MI-orvos” avatárok és szintetikusan generált hangok ajánlanak kétséges hatékonyságú kezeléseket szexuális problémákra.

Egyes, milliós megtekintésű videók olyan házi „tesztoszteron-fokozó főzeteket” hirdetnek, amelyek citromból, gyömbérből és fokhagymából készülnek.

Ami még aggasztóbb: a mesterséges intelligencia gyors fejlődése lehetővé tette hírességek deepfake-megjelenítését is – többek között Amanda Seyfried vagy Robert De Niro arcával.

„A férjednek nem áll fel?” – ezt a kérdést teszi fel látszólag Anthony Fauci, a Nemzeti Allergia- és Fertőző Betegségek Intézetének korábbi igazgatója egy prosztatára ható étrend-kiegészítőt reklámozó TikTok-videóban.

A felvétel azonban deepfake, amely Fauci képmását használja.

„Ártalmas módszer”

Sok manipulált videó meglévő képsorokat használ, alájuk mesterséges hangot illesztenek, majd módosítják a szájmozgást, hogy illeszkedjen az új hangsávhoz.

„A hírességekkel készült videók különösen károsak, mivel tovább gyengítik az emberek azon képességét, hogy megkülönböztessék a hiteles online tartalmat a hamistól” – mondta Mantzarlis.

Tavaly Mantzarlis több száz olyan YouTube-hirdetést azonosított, amelyekben deepfake-hírességek – köztük Arnold Schwarzenegger, Sylvester Stallone és Mike Tyson – erekciós zavarokra ajánlott étrend-kiegészítőket reklámoztak.

A rövid formátumú mesterséges intelligenciás videók gyors előállítása miatt még ha a közösségi oldalak el is távolítják a problémás tartalmakat, azok újra és újra megjelennek némileg módosított formában – így a moderálás soha véget nem érő játékká válik.

A kutatók szerint ez példátlan kihívásokat támaszt az MI által generált tartalmak ellenőrzésével szemben, és innovatív megoldásokat, kifinomultabb felismerő eszközöket igényel.

Az AFP tényellenőrzői több alkalommal is lelepleztek Facebook-hirdetéseket, amelyek például a merevedési zavarok „gyógymódját” hirdették Ben Carson idegsebész – az amerikai kormány korábbi tagja – képmásával.

Ennek ellenére sok felhasználó fenntartás nélkül elfogadja a hírességek termékajánlásait – ez is mutatja, miért annyira vonzó eszköz a deepfake a csalásokban.

„Csalásra használt affiliate marketing kampányok és kétes hatékonyságú szexuális segédeszközök azóta léteznek, mióta az internet megszületett – sőt már azelőtt is” – mondta Mantzarlis.

„Mint minden más visszaélés az interneten, a generatív MI ezeket is gyorsabbá és olcsóbbá tette ipari méretekben” – tette hozzá a szakember.

Van olyan tartalom, amelyet szeretne ellenőrizni az AFP tényellenőrzésén keresztül?

Lépjen kapcsolatba velünk