
"Hé, csetbot, igaz ez?" Az “MI-tényellenőrzések” téves információkat terjesztenek
- Megjelent: 2025. június 6., 15:17
- 3 perces olvasmány
- Szerző: Anuj CHOPRA, Sumit DUBEY, Maria Clara PESTRE, AFP Egyesült Államok, AFP India, AFP Brazília
- Fordítás és adaptáció: AFP Hungary
Szerzői jog © AFP 2017–2025. A tartalom kereskedelmi célú felhasználásához előfizetés szükséges. Kattintson ide, ha többet szeretne megtudni.
Ahogyan a négy napig tartó indiai-pakisztáni konfliktus alatt a téves információk száma robbanásszerűen megnőtt, a közösségi média felhasználók egy MI-csetbot segítségét kérték a tények ellenőrzéséhez. Csakhogy az emberek így még több hamis információval találták szembe magukat, ami megerősíti azt, hogy a csetbotok megbízhatatlanok, ha tényellenőrzésről van szó.
Mivel a technológiai platformok egyre kevesebb emberi tényellenőrt alkalmaznak, a felhasználók egyre inkább az MI alapú csetbotokra - köztük az xAI Grokjára, az OpenAI ChatGPT-jére és a Google Geminijére - támaszkodnak megbízható információk után keresve.
A “Szia @Grok, igaz ez?” kérdés gyakori lett Elon Musk X nevű platformján, amin beépített MI-asszisztens működik. Ennek bevezetése válasz arra a trendre, hogy a közösségi médiában szükség van az állítások azonnali megcáfolására vagy megerősítésére.
A csetbotok válaszai azonban gyakran tele vannak téves információkkal.
A Grok például egy, a szudáni Kartúm repülőteréről készült korábbi videóról azt állította, hogy azon egy rakétatámadást látni a pakisztáni Nur Khan légibázis ellen a legutóbbi pakisztáni-indiai konfliktus alatt. A csetbotot egyébként jelenleg ismét vizsgálják, miután a témától függetlenül a válaszaiban a "fehérek elleni népirtásról", egy szélsőjobboldali összeesküvés-elméletről kezdett beszélni.
A Grok egy nepáli égő épületről készült, az indiai-pakisztáni konfliktushoz nem kapcsolódó felvételről pedig tévesen azt mondta, hogy az “valószínűleg" az indiai támadásokra adott pakisztáni katonai választ mutatja.
“Az a jelenség, hogy a felhasználók egyre jobban támaszkodnak a Grok-ra, mint tényellenőrre, pont akkor üti fel a fejét, amikor az X és más nagy techcégek egyre kevésbé fektetnek az emberi tényellenőrökbe” - mondta McKenzie Sadeghi, a NewsGuard amerikai médiafigyelő szervezet kutatója az AFP-nek.
“Kutatásaink többször is kimutatták, hogy az MI alapú csetbotok nem megbízható források a hírek és információk tekintetében, különösen a friss hírek esetében” - figyelmeztetett Sadeghi.
A botok hajlamosak a kitalációk elismétlésére
A NewsGuard egy kutatása tíz széleskörűen használt csetbotnál állapította meg, hogy hajlamos volt kitalációk megismétlésére a válaszaiban, beleértve az orosz dezinformációs narratívákat és a közelmúltbeli ausztrál választásokkal kapcsolatos hamis vagy félrevezető állításokat.
A Columbia Egyetem Tow Center for Digital Journalism közelmúltbeli, nyolc MI-keresőeszközt vizsgáló tanulmánya megállapította, hogy a csetbotok “általában rosszul teljesítenek abban, hogy elutasítsák azoknak a kérdéseknek a megválaszolását, amikre nem tudják a pontos választ. Ehelyett helytelen vagy spekulatív válaszokat adnak”.
Amikor az AFP uruguayi tényellenőrei a Geminit kérdezték egy nőről készült, mesterséges intelligenciával generált képről, a csetbot nemcsak, hogy megerősítette annak hitelességét, hanem légből kapott információkat is megadott a nő személyazonosságáról és a kép készítésének lehetséges helyszínéről.
A Grok nemrégiben “hitelesnek” minősített egy fabrikált videót, amelyen egy óriási anakonda úszik az Amazonason. Emellett a csetbot még hihetőnek tűnő tudományos expedíciókat is megemlített, hogy alátámassza hamis állítását.
A valóságban a videót mesterséges intelligenciával generálták, derítették ki az AFP dél-amerikai tényellenőrei. Az újságírók azt is megjegyezték, hogy sok felhasználó a Grok értékelését idézte annak bizonyítékaként, hogy a videó valódi.
Az ilyen esetek aggodalmat keltenek a szakemberekben, mivel a felmérések szerint az internetes felhasználók egyre inkább áttérnek a hagyományos keresőmotorokról a mesterséges intelligencia által működtetett csetbotokra, ha információt szeretnének gyűjteni vagy ellenőrizni.
Ez a jellegű váltás egy olyan időszakban érkezett el, amikor a Meta az év eleji bejelentése alapján befejezi a harmadik fél által végzett tényellenőrzési programját az Egyesült Államokban, és a hamis állítások leleplezésének feladatát az X-en nagy népszerűségnek örvendő, “Közösségi Megjegyzések” néven ismert modell keretében az átlagos felhasználóknak adja át.
A kutatók korábban többször is megkérdőjelezték a “Közösségi Megjegyzések" hatékonyságát a hamis állítások elleni küzdelemben.
“Elfogult válaszok”
Az emberi tényellenőrzés létjogosultsága régóta vitatott kérdés a ma tapasztalható, politikailag megosztott világban. Különösen az Egyesült Államokban, ahol a konzervatívok szerint a tényellenőrzés elnyomja a szólásszabadságot és cenzúrázza a jobboldali tartalmakat. Ezeket a vádakat a professzionális tényellenőrök határozottan elutasítják.
Az AFP jelenleg 26 nyelven dolgozik a Facebook tényellenőrző programjában, a többi között Ázsiában, Latin-Amerikában és az Európai Unióban.
Az MI alapú csetbotok minősége és pontossága eltérhet, attól függően, hogy vannak betanítva és programozva. Ez pedig aggodalomra adnak okot azt illetően, hogy a csetbotok válaszai politikai befolyásnak vagy ellenőrzésnek vannak-e kitéve.
A Musk tulajdonában lévő xAI a közelmúltban egy “jogosulatlan módosítást” jelölt meg annak okaként, hogy a Grok miért kezdett el "fehérek elleni népirtásról" beszél Dél-Afrikában, akkor is ha a kérdésnek semmi köze nem volt ehhez.
Amikor David Caswell, MI-szakértő megkérdezte a Grokot, hogy ki módosíthatta a rendszerutasítását, a csetbot Muskot nevezte meg a “legvalószínűbb” elkövetőnek.
Elon Musk, a dél-afrikai születésű milliárdos, Donald Trump elnök támogatója a választások alatt, korábban már elterjesztette azt az alaptalan állítást, hogy Dél-Afrika vezetői “nyíltan szorgalmazzák a fehér emberek népirtását” az országban.
“Láttuk, hogy az MI-asszisztensek hogyan tudnak eredményeket kitalálni vagy elfogult válaszokat adni, miután az emberi programozók szándékosan megváltoztatták a nekik adott rendszerutasításokat” - mondta az AFP-nek Angie Holan, a Nemzetközi Tényellenőrző Hálózat igazgatója.
“Különösen aggaszt az, hogy a Grok rosszul kezelt nagyon érzékeny témákkal kapcsolatos kéréseket, miután azt az utasítást kapta, hogy előre megadott - nem feltétlenül a témához kapcsolódó - válaszokat adjon” - mondta Holan.
Van olyan tartalom, amelyet szeretne ellenőrizni az AFP tényellenőrzésén keresztül?
Lépjen kapcsolatba velünk