Egy olyan társadalomban, ahol erős a polarizáció és gyenge az álhírekkel szembeni ellenállás, az AI totális elbizonytalanodáshoz vezethet – véli Krekó Péter, aki interjúnkban arról is beszélt, hogy a deepfake-ek akkor is hatnak ránk, ha tudjuk, hogy hamisak.
2025-ben a mesterséges intelligencia Magyarországon is berobbant a politikai kommunikációba, ami nemcsak a pártokat és az internet-felhasználókat, hanem a tényellenőrző újságírókat is új kihívások elé állította. Az AI politikai felhasználásáról szóló interjúsorozatunk második részében Krekó Péter szociálpszichológussal, az ELTE PPK habilitált egyetemi docensével, a Political Capital igazgatójával beszélgettünk. A sorozat első interjúja Bene Márton politológussal itt olvasható.
Mennyire bízhatunk abban, hogy a magyar internetezők felismerik az AI-generált politikai tartalmakat?
Nemzetközi kutatásokból tudjuk, hogy az emberek találkoznak AI-generált tartalmakkal, és tartanak is tőlük. Persze ha úgy tesszük fel a kérdést, hogy tartanak-e a mesterséges intelligenciától, akkor mindig azt mondják, hogy igen. Mivel a generatív AI nagyon új jelenség, igazából sehol sincs ezzel kapcsolatban igazán magas szintű tudatosság, pláne nem teljes immunitás, és nem is lehet elvárni. Magyarországon a digitális hírfogyasztás és a kritikus információfogyasztás általánosságban is alacsony szinten van, ami nyilván kihat az AI tartalmak felismerésére is.
Talán ennél is fontosabb tényező a polarizáltság. Minél polarizáltabb egy politikai rendszer, annál inkább hajlamosak az állampolgárok arra, hogy elfogadják a logikailag vagy tapasztalatilag kevésbé megalapozott információkat is, ha azok jól illeszkednek a törzsi narratíváikba.
Magyarországon megvannak a jobboldalnak a jól ismert toposzai: a migráció, Soros, az orosz-ukrán háború, de ilyen volt a 2022-es választás előtt az, hogy az ellenzék nemváltó műtéteket akar végrehajtani óvodásokon. Ezeket a kormánypárti szavazók hajlamosak hitelesnek venni, csak azért, mert illeszkednek a világnezetükbe. Persze az ellenzéki oldalon is vannak törzsi narratívák, például a különböző vezető fideszes politikusok pszichiátriai kezeléséről, vagy konkrét politikusok pedofil üzelmeiről, amelyek szintén azért tudnak terjedni, mert polarizált a közbeszéd.
Ha valaki felismeri, hogy egy politikai tartalom AI-generált, attól még hatással lehet rá?
Abszolút lehet rá hatással, azt mutatják a kutatások, hogy a deepfake-ek akkor is hatnak, ha tudjuk, hogy hamisak. Akkor is érzelmeket alakíthatnak ki, attitűdöket formálhatnak, és így végső soron a véleményünket és a viselkedésünket is befolyásolhatják. Nem gondolom, hogy azok közül, akik látták az AI-generált képet, amin Manfred Weber pórázán van Magyar Péter, sokan valóságnak hitték volna. Biztos van egy nagyon vékony rétege a választóknak, aki igen, de a legtöbben tudják, hogy ez egy kreált kép. Mégis egy olyan erős vizuális inger, ami megragad az ember fejében, és könnyen lehet, hogy legközelebb, amikor Magyar Pétert látja, ez fog eszébe jutni. Ehhez hasonló hatást válthat ki, ha azt látjuk, hogy az ellenzék vezetője kényszerzubbonyban rángatózik egy szintén AI-generált videón. Mind kognitív, mind érzelmi hatást képesek kiváltani ezek a tartalmak. És minél többször találkozunk velük, annál inkább hatnak.
Ebben annyiban persze nincs újdonság, hogy a játékfilmek is azon a mechanizmuson alapulnak, hogy a fiktív történetek érzelmi hatást váltanak ki belőlünk. Elsírjuk magunkat a drámán, rettegünk a horrorfilmtől, miközben pontosan tudjuk, hogy ezek nem valós történetek.
Az is egy érdekes kérdés, hogy hányan fogadnak el bizonyos AI-generált videókat hitelesnek. Például az Orbán Balázs által is kiposztolt AI videót, amin Magyar Péter a Tisza állítólagos nyugdíjterveiről beszél. Ezeket a realisztikusabb tartalmakat szerintem sokan valósnak fogadják el, főleg, hogy nem marginális szereplők, hanem vezető kormányzati politikusok terjesztik őket. Az új technológia azt a szereplőt erősíti, akinek több erőforrása van, mert az tud több AI tartalmat jobb minőségben előállítani. Van egy csomó AI-generált videó fideszes politikusokról is, mondjuk a korrupciós ügyeiket kifigurázva, de ezek inkább a karikatúra meg paródia kategóriájába illeszkednek, és általában nem politikusok, és nem a mainstream média terjeszti őket. Kormányoldalról ellenben a mainstream média, például a Magyar Nemzet vagy az Origo, telis-tele vannak AI-generált képekkel. Elárasztják ezek a tartalmak a kormánypárti nyilvánosságot.
A Fidesz kommunikációja régóta épít az alternatív valóság vizuális megteremtésére. Az AI videók mennyiben mások, mint a hagyományos propagandaeszközök? Fogékonyabbak vagyunk rájuk?
Önmagában nem ördögtől való olyat ábrázolni egy politikusról, ami nem történt meg vele. Az Economistban is minden héten vannak politikai karikatúrák. Az, hogy az elképzelt, szimbolikus, feltételes módú politikai világot megjelenítjük képi formában, természetes eszköze a politikai kifejezésformának.
Ha lehet rajzfilmet készíteni, akkor mennyire etikus AI-generált tartalmat kreálni úgy, ha egyértelmű, hogy nem egy megtörtént dolgot ábrázol, hanem valamiféle fikciót? Nagyon nehéz pontosan meghúzni a határt. Ott volt péládul a republikánusok kampányfilmje, amiben Biden bejelentette, hogy újraindul, és deepfake jelenetek váltották egymást benne arról, hogy lebombázzák a taiwani 101-es tornyot, hogy természeti katasztrófák történnek, hogy elárasztják a migránsok a világot. Ha valaki megnézte a videót, többé-kevésbé egyértelmű volt, hogy egy kitalált jövőbeli valóságot ábrázol – „ez fog történni, ha Biden megnyeri a választást". Ilyen videófilmek korábban is léteztek, AI nélkül is. Ha az adott jelölttel kapcsolatban nem tartalmaz degradáló, vagy az illetőt emberi minőségében megkérdőjelező jelenetet, mondjuk dehumanizáló-állatiasító, vagy pszichopatologizáló ábrázolást, csak fiktív történeteket mesél el a tartalom úgy, hogy a befogadó is tudhatja, hogy fikciót lát, annak szerintem a politikai kommunikációban lehet helye és szerepe.
Magyarországon volt egy-két eset, ami ezen a – kellően megengedő – határon messze túllépett. Például a fent említett eset, amikor az AI Magyar Péter elég élethűen mondta el a Tisza Párt egyébként nem létező és általuk tagadott nyugdíjreformjait. A másik esetet, Manfred Weberrel és a kutyapórázzal, karikatúrában még el is tudnám képzelni. Csak van itt egy fontos különbség: a karikatúra távolít a valóságtól, az AI meg hiperrealisztikus.
Persze jogi eszközökkel ezt nehezen lehet megfogni. Egyébként vannak országok, ahol próbálják megfogni. Dániában például egy olyan törvényjavaslatot fogadtak el, ami kimondja, hogy a deepfake-ekre a személyiségi és a copyright jogok vonatkoznak. Ha valakiről deepfake-et készítenek az illető beleegyezése nélkül, akkor a készítő is következményekkel nézhet szembe, de ami fontosabb, hogy a terjesztő, tehát a közösségimédia-platformok is problémába ütközhetnek, és el kell távolítaniuk a tartalmat az illető kérésére. Akkor is, ha politikus – mert a saját képi megjelenítésükkel csak saját maguk rendelkezhetnek. Ez abból a szempontból nem rossz irány, hogy olyan politikai kampányok felé tartunk, amikor legalább a videók feléről már nem nagyon tudjuk majd eldönteni, hogy valódi-e vagy AI.
Társadalmi szinten milyen veszélyei lehetnek annak, ha az AI meghatározó lesz a politikai kommunikációban?
Voltak már kísérleti kutatások arról, hogy ha deepfake-eket mutogatunk embereknek azzal a felhívással együtt, hogy „vigyázz, mert jönnek a deepfake-ek", akkor mindenfajta audiovizuális tartalommal szemben bizalmatlanabbak lesznek. Nemcsak a deepfake-eknek hisznek kevésbé, hanem a valós videókat is deepfake-nek gondolják, mert túl óvatossá válnak. Az egyik legkárosabb hatása a deepfake-nek, hogy ezt a fajta elbizonytalanodást nagyon drámaian felerősíti. Egy olyan közegben, ahol eleve gyanakvóak az emberek az információforrásokkal, sokszor úgy érzik, nem tudják, mi az igaz, mi a kitalált, az AI hatására még kásásabbá válik a viszony a valósághoz. Ez az általunk tényrelativizmusnak nevezett jelenség, amikor azt mondják az emberek, hogy nemcsak, hogy nem tudom, mi az, ami igaz, hanem nincs is olyan, hogy igaz. A polarizáció ismételten felerősítheti ezt a hatást, szelektív módon.
Kit céloz a Fidesz az AI tartalmakkal? A saját szavazóikat akarják megerősíteni, a bizonytalanokat megnyerni, esetleg a velük ellentétes oldalon állókat idegesíteni, a social media elérést növeni?
Intenzív kísérletezés zajlik, egy post-truth laboratóriumban élünk, és azt látjuk, hogy a Fidesz minden téren új kampányeszközökkel kísérletezik. A különböző videókat különböző funkciókkal hozzák létre. Van, ami a fideszes közönségre hat leginkább – főleg azok, amiket például a Magyar Nemzetre raknak ki. Más videókkal inkább azokat célozzák, akik nem követik a politikát, és ha felugrik nekik egy reels videó, amiben nagyon furcsa dolgokat mond Magyar Péter, akkor nem biztos, hogy utánamennek az állításnak. A mennyiségi tényező eddig is jellemzője volt a magyar választási kampányoknak, a végtelenségig ismételt, vizuálisan túlexponált üzenetek Soros Györgyről, a menekültekről, az ukránokról – ezek mindenkire hatnak bizonyos szempontból. Van az igazság illúziója nevű hatás, egy kognitív pszichológiai jelenség, ami arról szól, hogy minél többet hallunk egy állítást, annál inkább igaznak fogjuk fel, akkor is, ha eleinte vagy nem volt róla véleményünk vagy szkeptikusak voltunk vele kapcsolatban.
A dezinformáció is hatásosabb lehet AI tartalmakkal megtámogatva?
Igen, és nem is kell hozzá feltétlenül audiovizuális tartalom. Már pár évvel ezelőtt is azt mutatták a kutatások, hogy a generatív AI által írt álhíreket jobban elhiszik az emberek, mint az emberek által írtat. Ahol nincsenek vizuális markerek, ott még könnyebb ezt a fajta technológiai előnyt alkalmazni. Ez már régóta zajlik, csak kevésbé a politikai, inkább a marketing propagandában, vagy a különböző áltudományos gyógymódok terjesztésében. Ezeknél általában már arról van szó, hogy generatív AI állítja elő magát a cikket, húzza bele a neveket, rakja mellé a képeket, és utána a botok terjesztik a végterméket az interneten. Igazából a befogadó az egyetlen, aki ebben a folyamatban ember.
Épp a Lakmuszon jelent meg egy cikk arról, hogy aktivista hálózatok Barátok Közt-szerű dramatikus sztorik közepette élik az életüket, teljesen valóságosnak tűnnek, de AI által generáltak, még akkor is, ha a profilokat emberek mozgatják. Egyre inkább erre számíthatunk a politikai kommunikációban. Már most is vannak vizsgálatok arról, hogy az X-en zajló diskurzusok számottevő hányadában legalább az egyik fél vagy nem autentikus, vagy bot, de van, hogy mindkettő – tehát sok olyan eset is van, hogy botok vitatkoznak egymással.
Persze ezek mögött valahol van egy anyagi vagy politikai érdek, ami emberi. És van a befogadó, aki szintén ember. Az ugyanakkor biztos, hogy az AI a dezinformáció gyártásában és terjesztésében egyre inkább előtérbe kerül. Szerencsére nemcsak ott, hanem a leleplezésben, a fact-checkben, az ellenérvelésben meg a hálózatok feltárásában is. Tehát az AI-t nem csak rosszra lehet használni, de ez egy rabló-pandúr játék, és jelenleg mintha a rabló jópár lépés előnyben lenne.
Nemzetközi viszonylatban mennyire egyedi az, ahogyan az AI megjelent a magyar politikai kommunikációban?
Magyarországon épül egy teljesen virtuális valóság, amiben egy adott párthoz egyáltalán nem köthető szakértők kiforgatott mondatait a párt véleményeként azonosítják, nem létező affiliációkkal címkéznek szereplőket, kiforgatják a szavaikat, ezeket a Tisza programjaként mutatják be. Generatív AI-jal készített „pártprogramokat” illegális módon terjesztenek látszólagos bulvárlapok formájában, törvényellenesen és országszerte. Közben fegyverkezik Brüsszel, hogy Ukrajna után ő is megtámadja az áldozat Oroszországot. Ebben a világban, ami már eleve minden elemében hamis, megjelennek azok a deepfake videók, amikben hitelesnek tűnő mondatok szerepelnek valódi politikusoktól. Nálunk ezeknek a hatása azért lehet nagyobb, mert egy olyan kontextusba illeszkednek, ahol már az egész keretezés 95, ha nem 100 százalékig kitalált.
Címlapi fotó: Political Capital
A szerzőről
Balogh Boglárka
Egyetemi tanulmányait a BGE kommunikáció- és médiatudomány alapszakán végezte. 2024 júliusától három hónapon át a Lakmusz gyakornoka, novembertől a Thomson Alapítvány nemzetközi gyakornoki programjának résztvevőjeként dolgozik a Lakmusznál.
Kövess minket
Ne maradj le egy anyagunkról sem, kövess minket máshol is!
Ajánlott cikkeink
„Az AI-jal vékonyodik a határ megtévesztés és illusztráció között”
A Fidesz szövetségesét leszámítva az összes olasz párt aláírta, hogy nem fog deepfake-eket gyártani a politikai ellenfeleiről
