„Az AI pozitív oldalát az egészségügyben és az oktatásban sokan ismerik, de most a negatív oldalról, a politikai és katonai felhasználásról fogok beszélni”
– szögezte le pénteki ismeretterjesztő előadásában Dabis Attila, a Corvinus tudományos írás tanácsadója, a téma szakértője.
A kutató szerint az AI felhasználásának „legalja”, amikor az emberi jogok súlyos megsértésére használják fel. Felháborító példaként az ujgurok esetét említette: a körülbelül 10-12 millió ujgur muszlim vallású közösség Kínában a Hszincsiang -Ujgur Autonóm Terület lakója. Életkörülményeik a koncentrációs táborok lakóinak helyzetére hasonlítanak: a családokat szétválasztják, kényszermunkát végeztetnek az emberekkel, elsősorban a textiliparban. A Kínai Kommunista Párt csinovnyikai rendőrként, civil besúgóként állandó megfigyelés alatt tartják az ujgurokat, mértékadó számítások szerint 6,5 négyzetméterenként van egy ellenőr – tudtuk meg az előadótól. A megfigyelést AI-rendszerekkel egyszerűsítik: írisz scan készül minden emberről, ez sokkal nagyobb pontossággal alkalmazható egy-egy ember azonosítására, mint más módszer (például az ujjlenyomat). Minden ujgur, aki új telefont vásárol, köteles az ún. Cleannet Bodyguard appot letölteni a telefonjára, hogy egy központi munkacsoport így megfigyelhesse őket. Ha ezt az appot mégsem tölti le valaki, börtön vagy úgynevezett átnevelő tábor vár rá.
„Véleményem szerint ez a legalja, itt alapvető emberi jogok eltiprásáról van szó”
– jelentette ki Dabis.
Ezután az előadó olyan eseteket ismertetett, amelyek deepfake videó használatával tévesztik meg és manipulálják az embereket. Az AI segítségével ma már van lehetőség arra, hogy egy milliók által kedvelt híresség arcát és hangját „ellopják”, és olyan dolgokat mondassanak, tetessenek vele a képernyőn, amelyeket sohasem mondott vagy tett. Be is mutatta az egyébként igen népes hallgatóságnak Morgan Freeman egyik ilyen deepfake videóját.
Dabis megemlítette, hogy az orosz-ukrán háború kezdete után néhány nappal – ez akkor volt, amikor az oroszoknak nem sikerült villámháborúval elfoglalni Kijevet – Zelenszkijről is készült egy deepfake videó, amelyben az ukrán elnök arra szólítja fel honfitársait, hogy mindenki tegye le a fegyvert. Egy másik „remekül” működő deepfake videót is bemutatott az előadó, ami Quentin Tarantino 2009-ben bemutatott Becstelen brigantyk című filmjét használja fel politikai célokra és manipulálásra. A film a második világháborúban a megszállt Franciaországban játszódik, zsidó-amerikai katonák (ők a brigantyk) náci katonákra vadásznak és kivégzik őket, egyikük módszere pedig, hogy baseballütővel veri szét a német katonák fejét. Az említett depfake videóban nem egy német katona, hanem Putyin fejét ütlegelik a baseballütővel.
„Minél jobban fejlődik ez a technika, annál inkább lesznek párhuzamos valóságmorzsák”
– jelentette ki az előadó.
A szakértő ezután olyan F16-os vadászgépekről beszélt, amelyek pilóta nélkül képesek felszállni és harci műveleteket végrehajtani, szintén az AI segítségével. Az ún. Lethal Autonomous Weapons Systems (halálos autonóm fegyverek, LAWS) már direkt emberi kontroll nélkül tudják kiválasztani a célpontot. Mit eredményez ez a robot a háborúban? Mint Dabis hozzátette, ezeket a gépeket is emberek állítják elő, de mindenki hibázhat: ki a felelős azért, ha ezek nem megfelelően működnek és egy hadászati célpont helyett mondjuk egy kórházat pusztítanak el? António Guterres, az ENSZ főtitkára politikailag elfogadhatatlannak, visszataszítónak nevezte az automata fegyverrendszereket. Persze, fűzte hozzá az előadó, a felelősséget mindig el lehet mosni.
Dabis arra is felhívta a figyelmet, hogy az AI használata során óriási környezeti kár keletkezik és elképesztő energiát fogyaszt. Mint hangsúlyozta, a ChatGPT fél nap alatt elhasznál annyi energiát, amennyi egy kisvárosnak kell.
Ezután az előadó a gyűlöletbeszédet hozta szóba: mint elmondta, ezzel a témával sokat foglalkozik, hiszen a Székely Nemzeti Tanácsnak is dolgozik.
„A gyűlöletbeszéd a közösségi média felületén terjed. Terjeszteni könnyű, kitörölni nehéz”
– összegezte véleményét. Elmondta: a ChatGPT úgy van megalkotva, hogy ne legyen gyűlöletkeltő, de ezt is könnyen meg lehet hekkelni. Rámutatott, sok faktortól függ, mit lehet gyűlöletbeszédnek nevezni – egyébként ha korlátozzuk, akkor egy alapvető emberi jogot, a szólásszabadságot is korlátozzuk. Megemlítette még a cyberbullying, a netes zaklatás jelenségét, melynek célja, hogy a kiszemelt személy alsóbbrendűnek érezze magát, és amelynek nyomán akár öngyilkosságot is elkövethet az érintett.
„Gyakorló szülőként nekem is gondot jelent, hiszen nem szeretném, ha a gyerekem digitális analfabéta legyen, de azért semmiképp se legyen cyberbullying áldozata”
– fűzte hozzá az előadó. A „nagymamás átverések” (bajban van az unoka, azonnal pénzt kell neki utalni) is jobban működnek az AI segítségével, hiszen most már bárkinek a hangját és személyiségét ellophatják a csalók – hallhattuk.
Végül az AI legkevésbé veszélyes, de mégis kártékony, nem kívánt következményeire hívta fel a figyelmet az előadó. Az USA-ban már sokan rendelkeznek távirányítható otthonnal, az Amazon Alexa pedig egy virtuális asszisztens, amely az AI segítségével fel tudja ébreszteni a ház lakóit, bekapcsolja a kávéfőzőt, szinte mindent el tud intézni. Előfordult, hogy egy kisgyerek, aki nagyon szeretett volna egy új babaházat, megrendelte Alexa segítségével az Amazonon és meg is hozták neki a kívánt játékot. Az esetet az amerikai bulvársajtó felkapta, így aztán a hír nagyon sok olyan háztartásba eljutott, ahol szintén volt Alexa. A TV-s közvetítés hallatán ezen gépek szintén megrendelték ezt a babaházat. Az ügyből jogvita lett, végül az Amazonnak kártérítést kellett fizetnie. Nehéz az ilyen hibákat kiküszöbölni, ebből jogi ügyek lehetnek és a cégeknek olykor sok millió dolláros kártérítést kell fizetniük.