Úgy fogsz felnőni, hogy egyre többször használod majd a mesterséges intelligenciát (AI). Ez rettentő gyorsan fejlődik, és annyira nem látni még, hogy hol fog a fejlődése megállni, hogy ilyen találgatásokba nem is érdemes belemenni. Viszont az már most látszik, hogy sokan használják az AI-t arra, hogy becsapjanak másokat. És most nem arra gondolunk, hogy a házi dolgozatot a ChatGPT-vel csináltatja meg valaki.
Az internetet elárasztották azok a tartalmak, főleg képek és most már nagyon jó minőségű videók, amiket az AI generált. Ezzel önmagában nem lenne baj. A Kispolgár is rengeteg képet rajzoltat meg a „robottal”. De mi nem is állítjuk ennek az ellenkezőjét. Nem akarjuk, hogy azt hidd, hogy van egy szorgos, százkarú grafikusunk, és soha nem csináltatunk vele olyan képet, ami fotónak tűnhet. A mesterségesen létrehozott videókkal és képekkel akkor van baj, ha nem derül ki róluk, hogy azokat AI generálta, és nem a valóságot mutatják. Ezzel pedig rengeteg embert meg lehet téveszteni.
Néhány napja felkerült az Instagramra és a YouTube-ra egy videó „Sokkoló ufóbaleset Arizonában” címmel. Ugyan az oldal tulajdonosa az Instán a bemutatkozásában leírja, hogy ő AI-val készít tartalmakat, a videó mellett ez már így nem jelenik meg. A felületes szemlélő pedig simán elhiheti, hogy amit lát, az valódi felvétel. A készítő ugyanis nagyon figyelt arra, hogy olyan legyen a munka, mintha azt tényleg egy telefonnal vette volna fel valaki. Bele-bele zoomol a képbe, a háttérben fúj a szél. Persze az is látszik, hogy az ufó mérete és formája minden vágásnál más.
Ennek ellenére, ahogy ez lenni szokott, a videó önálló életre kelt. Rengetegen megosztották, egy hét alatt közel hárommillió lájkot kapott a felvétel. És a kommentekből kiderül, hogy rengetegen el is hiszik, amit látnak. Ez pedig azért is problémás, mert Amerikában az elmúlt hetekben rengeteg hír volt azonosítatlan drónokról.
Az biztos, hogy a jövőben egyre több olyan képet és videót fogsz látni, amit az AI generált. Ezek közt lehetnek olyanok, amikor azt látod, hogy egy ismert ember olyasmiről beszél, ami egyáltalán nem jellemző rá. Az ilyesmit felhasználhatják csalók is, erről itt már írtunk. Az ilyen képek, videók akár választásokat is befolyásolhatnak, vagy akár el is dönthetnek majd. A tavalyi amerikai választások előtt is voltak erre kísérletek.
Aztán az sem kizárt, hogy a te fotóiddal, internetes tartalmaiddal él vissza valaki. Ezért figyelj oda alaposan, hogy miket töltesz fel a netre. (Persze nyilván semmit, hiszen még nem is teheted. Itt most kacsintunk egyet. De érdemes szólni a nagyinak is, hogy ne ossza meg csak úgy a szülinapodon készült videót a Facebook-oldalán.)
Most már tényleg érdemes résen lenni, mert egyre kevésbé lehetsz abban biztos, hogy valós videót látsz. Íme néhány dolog, amit érdemes egy videónál figyelni:
Szövegkörnyezet
Ha látsz egy videót, amin egy ismert állatvédő tigrisbundában áll és a vadászatot népszerűsíti, mindenképp érdemes gyanakodni. A hamisított videókban sokszor olyan dolgokat látsz, amiben a szereplő teljesen ellentétes dolgokat mond vagy tesz, mint amit eddig tudtál róla. Vajon elmenne Joe Biden és Donald Trump együtt nyaralni?
Furcsa elmosódott részletek, torzulások
Ha gyanús a szöveg, érdemes figyelni a beszélő szájának mozgását. Főleg a száj körülötti területen lehet kicsit elmosódott vagy pixeles a kép. Sokszor nincs összhangban a száj mozgása az elhangzott mondatokkal. De olyan is előfordulhat, hogy az arcon egy-egy részlet egészen más. Egy elálló fül, egy ránc vagy egy mozdulatlan hajtincs is árulkodó lehet. Szintén árulkodó, ha egy-egy mozdulatkor valami furcsa ugrás van a képen.
Nincs forrása a videónak
Gyanús lehet, ha a videó, mint például a már említett ufóbaleset csak a közösségi médiában terjed. És nem derül ki pontosan, hogy ki csinálta. Ha tényleg jönnének az ufók, azt biztosan bemutatná a világ összes hírportálja is. A videók alatti szövegeket is érdemes ilyenkor átnézni. Ha szerepel ott a hashtag (#) után, hogy MI, AI vagy akár a deepfake szó is, akkor már biztosan tudod, mivel állsz szemben. Az Európai Unióban egyébként van egy hatályos AI-rendelet, ami szerint kötelező jelezni, hogy egy kép vagy videó mesterségesen generált.

Nehezebb dolgod van, ha csak hanganyagot hallasz, ugyanis a hangok generálásában már jóval előrébb jár a technológia. A szavak egymáshoz való illeszkedését érdemes figyelni, hogy van-e törés, hirtelen váltás a magas-mély hangok közt, vagy valami egyéb furcsaság. De sokszor már tényleg szakemberek kellenek ahhoz, hogy megállapítsák, hogy egy hangfelvétel generált-e.
Mi segíthet még?
Leginkább a józan paraszti ész. Az, hogy hiszel a saját korábbi tapasztalataidnak és tudásodnak. Ha eddig gond nélkül rávágtad egy beszélgetésben, hogy ufók nincsenek, akkor ne hidd el azt se, hogy épp lezuhant egy Arizona közepén. Ha tényleg így lenne, akkor másról sem szólna az összes híradás.
Általában is elmondható, hogy a közösségi média, a videómegosztók rengeteg álhírt terjesztenek. Ezért fontos az intézményes sajtó, vagyis a jó hírű, megbízható újságok szerepe. Az az ufóbaleset, ami nem szerepel a CNN-en, a HVG-n vagy a Kispolgárban, az nem történt meg. Szóval a legjobb védelem, ha olvasol újságot!
Ha pedig még mindig maradtak benned kérdések, vannak már ingyenesen elérhető oldalak a neten, ahova fel lehet tölteni videókat. Ezek pedig lebuktatják az AI-t. Ilyen például a Deepware Scanner. De vigyázz, vannak hasonló oldalak, amik szövegeket vizsgálnak át. És ezt biztosan tudja az a tanárod is, akinek a következő házidolgozatodat be kell majd adni.