Deepfake-jelentő rendszer, címkézett AI-tartalmak, korlátozott politikai hirdetések: így készülnek a nagy techcégek az EP-választásra
Ezt a cikket 2024
áprilisában írtuk.
A benne lévő
információk azóta elavulhattak.
Megnéztük, mit tesz a választási dezinformáció ellen a Meta, a Google, a TikTok és a Microsoft, és mit vár el a cégektől az Európai Bizottság.
Március 26-án két fontos bejelentés történt a választási dezinformáció elleni fellépés témájában. Ezen a napon tette közzé az Európai Bizottság iránymutatásait „a választásokat érintő online rendszerszintű kockázatok csökkentéséről”; és ugyanezen a napon hozták nyilvánosságra a dezinformáció elleni gyakorlati kódexhez (Code of Practice on Disinformation) csatlakozó nagy techcégek legújabb jelentéseiket, melyekben külön fejezetet szenteltek a júniusi európai parlamenti választásnak.
A bizottsági iránymutatás a digitális szolgáltatásokról szóló uniós jogszabályhoz ( Digital Services Act, DSA) kapcsolódik, és elsődlegesen az EU-s szinten legalább 45 millió aktív felhasználóval rendelkező kijelölt óriásplatformoknak és keresőmotoroknak szól.
A DSA értelmében a kijelölt techcégeknek kockázatértékelést kell végezniük többek között a szolgáltatásuknak a választási folyamatokra gyakorolt hatásáról, az azonosított kockázatokat pedig „kockázatcsökkentési intézkedésekkel” kell kezelniük. A márciusi iránymutatás ilyen intézkedésekre tesz javaslatot.
A dezinformáció elleni fellépésre vonatkozó gyakorlati kódexhez önkéntes alapon csatlakozhatnak a techcégek, de a vállalások végrehajtását és az erről szóló jelentéseket a Bizottság is nyomon követi. A kódex a DSA-nak való megfelelést is szolgálja.
Ebben a cikkben bemutatjuk,
- hogy a kódex alapján leadott legfrissebb jelentésekben milyen, kifejezetten a júniusi EP-választáshoz kapcsolódó dezinformáció elleni lépésekről számolt be a négy legfontosabb érintett vállalat, a Meta, a Google, a TikTok és a Microsoft,
- és hogy mit vár el a DSA alá tartozó cégektől a Bizottság iránymutatása.
A jelentések és az EP választás
A 2024 márciusi volt a harmadik jelentéstételi kör a dezinformáció elleni gyakorlati kódexhez csatlakozó cégek számára. A kódexről a Lakmuszon korábban is több cikkben írtunk.
A kódex aláírói között ott vannak a DSA alá tartozó legfontosabb óriásplatformok és keresőmotorok, így a Meta, a Google, a TikTok és a Microsoft. Bár a Twitter eredetileg csatlakozott a kódexhez, az Elon Musk által X-re átkeresztelt platform 2023 májusában kilépett az önkéntes kezdeményezésből.
Márciusi jelentéseikben a cégek külön fejezetben számoltak be arról, hogy a dezinformáció elleni általános szabályaikon túlmenően milyen külön intézkedésekkel készülnek a június 6. és 9. közötti EP-választásra.
Meta
- A Meta (a Facebook, az Instagram és a WhatsApp tulajdonosa) például kiterjesztette a tiltott hirdetésekre vonatkozó politikáját, így már az EU tagállamaiban sem engedélyezettek az olyan hirdetések, amelyek eltántorítják az embereket a szavazástól, megkérdőjelezik egy közelgő vagy folyamatban lévő választás jogszerűségét vagy idő előtt megnevezik a választás győztesét.
- 2023 novemberében bevezettek egy új szabályt arról, hogy a politikai hirdetések feladóinak jelezniük kell, ha a hirdetett tartalmat mesterséges intelligenciával hozták létre vagy módosították. Ha valaki elmulasztja a bejelentést, és a Meta felismeri az AI használatát, akkor elutasítják a hirdetést, ismételt szabálysértés esetén pedig szankcionálhatják is a hirdetőt.
- A Google arról ír a jelentésben, hogy az EP-választáshoz közeledve be fog építeni egy biztonsági szűrőt AI-alapú chatbotjába, a Geminibe, amely így bizonyos választáshoz kapcsolódó kérdésekre nem ad majd választ.
- Továbbá a Google Ads-en címkézési kötelezettséget vezettek be az AI segítségével készült választási hirdetésekre (a Google által futtatott hirdetésekkel weboldalakon, illetve a YouTube videói előtt/közben lehet találkozni). A YouTube esetében azt tervezik, hogy minden AI által generált tartalmat kötelező lesz jelölni, de kiemelt figyelmet fordítanak a választásokhoz kapcsolódó videókra.
Tiktok
- A TikTok elvben eddig is tiltotta a politikai tartalmú hirdetéseket, de mint azt korábbi cikkünkben bemutattuk, ennek ellenére elég sok politikai hirdetés átcsúszott a platform szűrőjén, Magyarországon is. A jelentés szerint most új megközelítéssel próbálkoznak, külön kategóriát hoztak létre a kormányzati, politikusi és politikai pártokhoz kapcsolódó profiloknak, és ezeknél egyáltalán nem engedélyezik a hirdetést.
- A TikTok azt is vállalta, hogy az EP-választásig minden uniós tagállam legalább egy hivatalos nyelvére kiterjeszti az együttműködését a külsős fact-checkerekkel. A honlapján elérhető térkép szerint a TikToknak jelenleg a három balti államban, Szlovéniában és Luxemburgban nincs tényellenőrző partnere.
Microsoft
- A Microsoft létrehozott egy felületet, ahol a választásokon induló jelöltek bejelenthetik, ha megtévesztő deepfake tartalmat találnak magukról a neten.
- Együttműködnek továbbá a Riporterek Határok Nélkül újságírószervezettel annak érdekében, hogy a Bing keresőmotor a választással kapcsolatos témákban megbízható forrásból származó információkat jelenítsen meg kiemelt helyen.
Mit akar az Európai Bizottság?
Az Európai Bizottság kockázatcsökkentési iránymutatása szélesebb kört ölel fel a dezinformáció elleni fellépésnél, például a gyűlöletbeszéddel és a szélsőséges tartalmakkal is foglalkozik.
A Bizottság azt javasolja az óriásplatformoknak és keresőmotoroknak, hogy a választások idején erősítsék meg a tartalommoderációs egységeiket és hozzanak létre egy külön csapatot a választással kapcsolatos kockázatok kezelésére.
Konkrét kockázatcsökkentő intézkedésekre a techcégek jelentéseiben szereplőkhöz hasonló ajánlásokat tesz a Bizottság, így például javasolja
- a hivatalos választási információk és csatornák promotálását,
- a fact-checking címkék és felugró ablakok megerősített használatát,
- a hivatalos profilok, ezen belül az EU-n kívüli országok kormányaihoz kapcsolódó profilok világos jelölését,
- az AI által generált tartalmak címkézését,
- a dezinformációs tartalmak és a megtévesztő AI-tartalmak elérésének csökkentését,
- a politikai hirdetések átláthatóságát és a dezinformáció hirdetésének megakadályozását.
Az irányelvek a Bizottság szerint „legjobb gyakorlatokat” jelenítenek meg, betartásuk nem kötelező a DSA alá tartozó szolgáltatóknak, de ha más megoldásokat választanak, akkor meg kell győzniük a Bizottságot arról, hogy azok ugyanolyan hatékonyak a választással kapcsolatos kockázatok csökkentésére. Április végén a Bizottság „stressztesztet” is tervez, hogy felmérje a platformok kockázatcsökkentő intézkedéseinek hatékonyságát.
Ha a Bizottság úgy találja, hogy egy szolgáltató megszegi a DSA-ban foglalt bármely kötelezettségét – például a választási kockázatcsökkentésre vonatkozót -, akkor az éves forgalom akár 6 százalékáig terjedő pénzbírsággal sújthatja a céget.
A Bizottság már több hivatalos eljárást indított a DSA vélelmezett megsértése miatt, például az X és a TikTok ellen.
Az X elleni eljárás egyik jogalapja éppen az információmanipuláció elleni fellépés elégtelensége: a Bizottság azt vizsgálja, hogy az X által alkalmazott „közösségi megjegyzések” rendszere hatékony eszköz-e a választással kapcsolatos kockázatok csökkentésére.
(Címlapi kép forrása: Jonathan Raa/NurPhoto/AFP)
A szerzőről

Teczár Szilárd
2025 márciusától a Lakmusz főszerkesztője. 2022 októberében csatlakozott a Lakmuszhoz, előtte 10 évig a Magyar Narancs újságírója volt. A European University Institute Global Executive Master programjának hallgatója.