Biztosan észrevettétek már, hogy a képeket, amiket a Kispolgár cikkeihez használunk, mesterséges intelligencia (AI) generálja. Tudunk nektek csinálni kerekeken guruló orrszarvút és gombát ölelgető kisbékát is. De volt már, hogy arra kértük a robotunkat, hogy gyártson nekünk Ferenc pápát, Elvist, vagy akár Donald Trumpot is. Ezekkel a képekkel mi cikkeket illusztrálunk, hogy ne csak egy nagy szöveghalmazt lássatok, amikor minket olvastok. Viszont vannak, akik arra használják az ilyen mesterségesen létrehozott képeket, hogy becsapjanak másokat. Ez pedig különösen veszélyes lehet akkor, ha egy országot akarnának becsapni vagy megtéveszteni. Főleg választási évben.
2024-ben elnököt választ Amerika, és idén lesz az európai parlamenti választás is. Ezért nem mindegy, hogy a választók milyen tartalmakkal találkoznak. A mesterséges intelligencia ugyanis nemcsak képeket, hanem hangfelvételeket vagy videókat is képes előállítani. Ezeket pedig kampányokban is elkezdték használni.
Amerikában már egyre elterjedtebb
Nemrég például az amerikai New Hampshire-i előválasztáskor több ezer ember kapott olyan telefonhívást, amiben maga Joe Biden elnök győzködte a demokrata szavazókat arról, hogy ne menjenek el voksolni. A telefonhívás egy mesterségesen generált hangfelvétel volt. Utólag persze kiderült, hogy hamisítvány, de addig eljutott legalább húszezer választóhoz.
Ugyancsak nagy port kavart az az eset, amikor tavaly Donald Trump arról írt a közösségi médiában, hogy szerinte le fogják tartóztatni az ellene folyó per kapcsán. Nem sokkal később elkezdett terjedni egy képsorozat, amin épp rendőrök teperik le a volt amerikai elnököt. A képeket AI generálta, és közelebbről megnézve látszik is, hogy nem valódiak. De az ilyen tartalmak, főleg, ha maga az elnök posztol előtte valami hasonlót, sokakat megtéveszthetnek.
Tech-cégek a választások tisztaságáért
Épp ezért fogtak össze a legnagyobb tech-vállalatok, köztük a Meta, a TikTok, az OpenAI, a Google, az Amazon, a Microsoft és még az Elon Musk vezette X is, hogy megpróbálják kiszűrni azokat a tartalmakat, amik szándékosan becsapnák a választókat. A nemrég aláírt egyezményük vonatkozik minden olyan képre, videóra vagy hanganyagra, amit AI generált abból a célból, hogy az befolyásolhassa a választást. Akár úgy, hogy olyan helyzetekben ábrázolja a jelöltet, ami nem történt meg, vagy akár úgy is, hogy olyan szavakat ad a szájába, ami nem hangzott el soha. Esetleg olyan élethű videókat készítenek a jelöltről, ami nem valódi, viszont nagyon megtévesztő.
Ez utóbbi jelenséget egyébként deepfake-nek nevezzük, és nemcsak politikusokat érinthet, hanem hírességeket is. De egyébként meg bárkit, akár még téged is. Nemrég például Taylor Swiftről került fel az X-re egy sor olyan szexuális tartalmú kép, amiken nem ő szerepelt, de az arcát használták hozzá. És ezeket legalább 50 millióan látták, mielőtt törölték volna azokat. Az AI elképesztően gyors fejlődésével pedig egyre nehezebb lesz megkülönböztetni az igazit a hamisított tartalomtól.
A nagy tech-cégek mostani összefogása viszont ezekre a tartalmakra nem tér ki, ők kimondottan a választásokkal foglalkoznának. A megállapodás nem biztos, hogy elég lesz, ugyanis nem arról szól, hogy a Facebook vagy a TikTok törölné vagy akár be is tiltaná ezeket a képeket vagy videókat. Inkább csak arról, hogy lesznek közös módszerek arra, hogy felismerjék és megjelöljék a hamisított tartalmakat. Abban is megállapodtak a cégek, hogy olyan kampányokat indítanak majd, amik segítenek felismerni, ha valami nem valódi. Emellett közös fejlesztésekbe is kezdenek, amik fel tudnak lépni a hamis képek, videók ellen.
A Midjourney nevű képgenerátor, amit egyébként mi is használunk, bejelentette, hogy az amerikai választási kampányban nem fog politikus-képeket előállítani. A korlátozás első körben Trumpra és Bidenre vonatkozik. Ez ellen valószínűleg Trumpnak sem lenne kifogása. Ugyanis a volt elnök pont a napokban panaszkodott arról, hogy az AI folyton pocakosabbnak ábrázolja őt, mint amilyen a valóságban. Orbán Viktor még nem nyilatkozott. (theguardian.com, cnn.com, nypost.com, portfolio.hu)