Deepfake-jelentő rendszer, címkézett AI-tartalmak, korlátozott politikai hirdetések: így készülnek a nagy techcégek az EP-választásra
2024. április 10. 07:02
Ezt a cikket 2024
áprilisában írtuk.
A benne lévő
információk azóta elavulhattak.
Megnéztük, mit tesz a választási dezinformáció ellen a Meta, a Google, a TikTok és a Microsoft, és mit vár el a cégektől az Európai Bizottság.
Március 26-án két fontos bejelentés történt a választási dezinformáció elleni fellépés témájában. Ezen a napon tette közzé az Európai Bizottság iránymutatásait „a választásokat érintő online rendszerszintű kockázatok csökkentéséről”; és ugyanezen a napon hozták nyilvánosságra a dezinformáció elleni gyakorlati kódexhez (Code of Practice on Disinformation) csatlakozó nagy techcégek legújabb jelentéseiket, melyekben külön fejezetet szenteltek a júniusi európai parlamenti választásnak.
A bizottsági iránymutatás a digitális szolgáltatásokról szóló uniós jogszabályhoz ( Digital Services Act, DSA) kapcsolódik, és elsődlegesen az EU-s szinten legalább 45 millió aktív felhasználóval rendelkező kijelölt óriásplatformoknak és keresőmotoroknak szól.
A DSA értelmében a kijelölt techcégeknek kockázatértékelést kell végezniük többek között a szolgáltatásuknak a választási folyamatokra gyakorolt hatásáról, az azonosított kockázatokat pedig „kockázatcsökkentési intézkedésekkel” kell kezelniük. A márciusi iránymutatás ilyen intézkedésekre tesz javaslatot.
A dezinformáció elleni fellépésre vonatkozó gyakorlati kódexhez önkéntes alapon csatlakozhatnak a techcégek, de a vállalások végrehajtását és az erről szóló jelentéseket a Bizottság is nyomon követi. A kódex a DSA-nak való megfelelést is szolgálja.
Ebben a cikkben bemutatjuk,
- hogy a kódex alapján leadott legfrissebb jelentésekben milyen, kifejezetten a júniusi EP-választáshoz kapcsolódó dezinformáció elleni lépésekről számolt be a négy legfontosabb érintett vállalat, a Meta, a Google, a TikTok és a Microsoft,
- és hogy mit vár el a DSA alá tartozó cégektől a Bizottság iránymutatása.
A jelentések és az EP választás
A 2024 márciusi volt a harmadik jelentéstételi kör a dezinformáció elleni gyakorlati kódexhez csatlakozó cégek számára. A kódexről a Lakmuszon korábban is több cikkben írtunk.
A kódex aláírói között ott vannak a DSA alá tartozó legfontosabb óriásplatformok és keresőmotorok, így a Meta, a Google, a TikTok és a Microsoft. Bár a Twitter eredetileg csatlakozott a kódexhez, az Elon Musk által X-re átkeresztelt platform 2023 májusában kilépett az önkéntes kezdeményezésből.
Márciusi jelentéseikben a cégek külön fejezetben számoltak be arról, hogy a dezinformáció elleni általános szabályaikon túlmenően milyen külön intézkedésekkel készülnek a június 6. és 9. közötti EP-választásra.
Meta
- A Meta (a Facebook, az Instagram és a WhatsApp tulajdonosa) például kiterjesztette a tiltott hirdetésekre vonatkozó politikáját, így már az EU tagállamaiban sem engedélyezettek az olyan hirdetések, amelyek eltántorítják az embereket a szavazástól, megkérdőjelezik egy közelgő vagy folyamatban lévő választás jogszerűségét vagy idő előtt megnevezik a választás győztesét.
- 2023 novemberében bevezettek egy új szabályt arról, hogy a politikai hirdetések feladóinak jelezniük kell, ha a hirdetett tartalmat mesterséges intelligenciával hozták létre vagy módosították. Ha valaki elmulasztja a bejelentést, és a Meta felismeri az AI használatát, akkor elutasítják a hirdetést, ismételt szabálysértés esetén pedig szankcionálhatják is a hirdetőt.
- A Google arról ír a jelentésben, hogy az EP-választáshoz közeledve be fog építeni egy biztonsági szűrőt AI-alapú chatbotjába, a Geminibe, amely így bizonyos választáshoz kapcsolódó kérdésekre nem ad majd választ.
- Továbbá a Google Ads-en címkézési kötelezettséget vezettek be az AI segítségével készült választási hirdetésekre (a Google által futtatott hirdetésekkel weboldalakon, illetve a YouTube videói előtt/közben lehet találkozni). A YouTube esetében azt tervezik, hogy minden AI által generált tartalmat kötelező lesz jelölni, de kiemelt figyelmet fordítanak a választásokhoz kapcsolódó videókra.
Tiktok
- A TikTok elvben eddig is tiltotta a politikai tartalmú hirdetéseket, de mint azt korábbi cikkünkben bemutattuk, ennek ellenére elég sok politikai hirdetés átcsúszott a platform szűrőjén, Magyarországon is. A jelentés szerint most új megközelítéssel próbálkoznak, külön kategóriát hoztak létre a kormányzati, politikusi és politikai pártokhoz kapcsolódó profiloknak, és ezeknél egyáltalán nem engedélyezik a hirdetést.
- A TikTok azt is vállalta, hogy az EP-választásig minden uniós tagállam legalább egy hivatalos nyelvére kiterjeszti az együttműködését a külsős fact-checkerekkel. A honlapján elérhető térkép szerint a TikToknak jelenleg a három balti államban, Szlovéniában és Luxemburgban nincs tényellenőrző partnere.
Microsoft
- A Microsoft létrehozott egy felületet, ahol a választásokon induló jelöltek bejelenthetik, ha megtévesztő deepfake tartalmat találnak magukról a neten.
- Együttműködnek továbbá a Riporterek Határok Nélkül újságírószervezettel annak érdekében, hogy a Bing keresőmotor a választással kapcsolatos témákban megbízható forrásból származó információkat jelenítsen meg kiemelt helyen.
Mit akar az Európai Bizottság?
Az Európai Bizottság kockázatcsökkentési iránymutatása szélesebb kört ölel fel a dezinformáció elleni fellépésnél, például a gyűlöletbeszéddel és a szélsőséges tartalmakkal is foglalkozik.
A Bizottság azt javasolja az óriásplatformoknak és keresőmotoroknak, hogy a választások idején erősítsék meg a tartalommoderációs egységeiket és hozzanak létre egy külön csapatot a választással kapcsolatos kockázatok kezelésére.
Konkrét kockázatcsökkentő intézkedésekre a techcégek jelentéseiben szereplőkhöz hasonló ajánlásokat tesz a Bizottság, így például javasolja
- a hivatalos választási információk és csatornák promotálását,
- a fact-checking címkék és felugró ablakok megerősített használatát,
- a hivatalos profilok, ezen belül az EU-n kívüli országok kormányaihoz kapcsolódó profilok világos jelölését,
- az AI által generált tartalmak címkézését,
- a dezinformációs tartalmak és a megtévesztő AI-tartalmak elérésének csökkentését,
- a politikai hirdetések átláthatóságát és a dezinformáció hirdetésének megakadályozását.
Az irányelvek a Bizottság szerint „legjobb gyakorlatokat” jelenítenek meg, betartásuk nem kötelező a DSA alá tartozó szolgáltatóknak, de ha más megoldásokat választanak, akkor meg kell győzniük a Bizottságot arról, hogy azok ugyanolyan hatékonyak a választással kapcsolatos kockázatok csökkentésére. Április végén a Bizottság „stressztesztet” is tervez, hogy felmérje a platformok kockázatcsökkentő intézkedéseinek hatékonyságát.
Ha a Bizottság úgy találja, hogy egy szolgáltató megszegi a DSA-ban foglalt bármely kötelezettségét – például a választási kockázatcsökkentésre vonatkozót -, akkor az éves forgalom akár 6 százalékáig terjedő pénzbírsággal sújthatja a céget.
A Bizottság már több hivatalos eljárást indított a DSA vélelmezett megsértése miatt, például az X és a TikTok ellen.
Az X elleni eljárás egyik jogalapja éppen az információmanipuláció elleni fellépés elégtelensége: a Bizottság azt vizsgálja, hogy az X által alkalmazott „közösségi megjegyzések” rendszere hatékony eszköz-e a választással kapcsolatos kockázatok csökkentésére.
(Címlapi kép forrása: Jonathan Raa/NurPhoto/AFP)
A szerzőről

Teczár Szilárd
2025 márciusától a Lakmusz főszerkesztője. 2022 októberében csatlakozott a Lakmuszhoz, előtte 10 évig a Magyar Narancs újságírója volt. A European University Institute Global Executive Master programjának hallgatója.
Kövess minket
Ne maradj le egy anyagunkról sem, kövess minket máshol is!
Ajánlott cikkeink

Orbán belbiztonsági főtanácsadója nehezen értelmezhető számokkal bizonygatta az M1-en, hogy elakadt az EU migrációs csomagja

Orbán az ukránozás közben túlzó kijelentést tett az európai országok adósságáról
