A mesterséges intelligencia áttörése aggodalomra ad okot a befolyásolási kampányokkal kapcsolatban, mivel mostantól már jóval kevesebb emberi és pénzügyi erőforrás lesz szükséges a nagyszabású dezinformációs kampányok lebonyolításához. Mára egyértelművé vált, hogy az MI-rendszerek maguk is képesek félretájékoztatni, így jelentős mértékben ronthatják a demokratikus intézményekbe vetett közbizalmat.

A Európai Parlament Kutatószolgálatának (EPRS) egy 2023-ban publikált összefoglaló anyaga szerint a generatív mesterséges intelligencia (a továbbiakban: MI) áttörése aggodalomra ad okot a befolyásolási kampányokkal kapcsolatban, mivel mostantól már jóval kevesebb emberi és pénzügyi erőforrás lesz szükséges a nagyszabású dezinformációs kampányok lebonyolításához. Az EPRS dokumentuma több tanulmányt, kutatást is példaként hoz, ezek sorában. A Gazdasági Együttműködési és Fejlesztési Szervezet (OECD) hangsúlyozza, hogy a mesterséges intelligencia nyelvi modelljeinek (az információk tudásként történő befogadásával, feldolgozásával és tárolásával, a nyelv megértésével és létrehozásával), valamint a dezinformációnak a kombinációja már nagymértékű megtévesztéshez vezethet, és jelentős mértékben ronthatja a demokratikus intézményekbe vetett közbizalmat. Mára egyértelművé vált, hogy az MI-rendszerek pedig maguk is képesek félretájékoztatni, egy tanulmány megállapította, hogy a Google Bard nevű MI-eszköze 100, a kutatásban tesztelt narratíva közül 78-ban hozott létre meggyőzően téves információkat (a Bard egy generatív mesterséges intelligencia alapú chatbot, amely emberi hangzású szövegeket, cikkeket és közösségi médiatartalmakat tud készíteni a felhasználók felkéréseire és kérdéseire válaszolva).

A ChatGPT új verziója, a ChatGPT-4 még hajlamosabb téves információk generálására (100-ból 100 esetben képes hamis és félrevezető információkkal válaszolni), így a veszélyét tekintve meggyőzőbb, mint az elődje, a ChatGPT-3.5 (amely 100-ból 80 esetben generált hamis válaszokat). Az eredmények azt mutatják, hogy a chatbot – vagy egy hasonló eszköz, amely ugyanazt a mögöttes technológiát használja – ma már hatékonyan felhasználható téves információk széles körű terjesztésére, aminek a politikai hatása, jelentősége beláthatatlan. Utóbbi eset arra is rávilágít a NewsGuard eredményeinek fényében, hogy az OpenAI a mesterséges intelligencia technológia jóval erősebb verzióját (a piaci verseny miatt) azelőtt vezette be, mielőtt kijavította volna a korábbi változat legkritikusabb hibáit. Az ilyen cégek fogadkoznak, hogy tisztában vannak a kockázatokkal, és hogy azokat kezelni próbálják: éppen a ChatGPT mögött álló OpenAI például bejelentette, hogy ellenőrizni fogja az alkalmazás használatát annak érdekében, hogy az hatékonyan kiszűrhesse a politikát is befolyásoló tevékenységeket.

A Big Tech platformoknak vannak lehetőségei az álhírek megfékezésére, különösképpen a Brexit-kampány, vagy a 2016-os és 2020-as amerikai elnökválasztások tapasztalatai alapján. Ezen platformok esetén azonban még nincs egységes szabályozás, amit főleg az európai és az amerikai jogi gondolkodás különbségei magyaráznak. A 2024-es amerikai elnökválasztás kampánya az MI-alapú dezinformáció egyre növekvő kihívásaival néz szembe, így például a Joe Biden amerikai elnököt megszemélyesítő robocall már most különös riadalmat kelt (az audio deepfake miatt). A telefonüzenet digitálisan „meghamisítja” a mostani elnök hangját, miközben visszhangozza Biden egyik jellegzetes mondatát: a robocall arra szólította fel a New Hampshire-i lakosokat, hogy ne szavazzanak a demokraták 2024. januári előválasztásán, ami arra késztette a tagállami hatóságokat, hogy vizsgálatot indítsanak a szavazók esetleges szupressziója (visszafogása) kapcsán.

Wasim Khaled, a Blackbird.AI szoftverfejlesztő vállalat vezérigazgatója szerint a hamis hanganyagok létrehozásának és terjesztésének egyszerűsége bonyolítja az amúgy is hiperpolarizált politikai tájképet, aláássa a médiába vetett bizalmat, és lehetővé teszi bárki számára, hogy azt állítsa, hogy tényeken alapuló „bizonyítékokat gyártott”. A kínai ByteDance, a TikTok platform tulajdonosa nemrég bemutatta a StreamVoice-t, egy mesterséges intelligencia alapú eszközt, amely valós időben átalakítja a felhasználó hangját bármely kívánt alternatívára. A digitális szolgáltatásokról szóló jogszabály (röviden DSA), vagyis (EU) 2022/2065 rendelet a jogellenes tartalomról, átlátható hirdetésekről és félretájékoztatásról szóló 2000. évi e-kereskedelmi irányelvet aktualizálja, azt is célozva, hogy az eddig jellemző önszabályozás után a legfontosabb pontokon versenyjogi kötelezettség vonatkozzon a közösségimédia-platformokon zajló nyilvános politikai kommunikációra. A rendeletet 2022. október 27-én hirdették ki az Európai Unió Hivatalos Lapjában, alapvető szabályai 2022. november 16. óta alkalmazandók, túlnyomó többségük 2024. február 17-étől alkalmazandó. A DSA aktivitásra ösztönzi a legnagyobb platformokat, amelyek évente kötelesek lesznek majd elemezni, hogy a szolgáltatásaik, különösen a tartalmakat rangsoroló, algoritmizált (mesterséges intelligencián alapuló) ajánlórendszerük milyen hatással van a választási folyamatokra.

Az Európai Bizottság 2021. április 21-én terjesztette elő a javaslatát, majd 2023. december 9-én jutott ideiglenes megállapodásra a Tanács elnöksége és az Európai Parlament tárgyalói a mesterséges intelligenciára vonatkozó harmonizált szabályokról szóló javaslattal (a továbbiakban: MI-kódex) kapcsolatban. A fő elképzelés kockázatalapú megközelítés mentén szabályozni a mesterséges intelligencia azon képességét, hogy kárt okozzon a társadalomnak.

Az ideiglenes megállapodást követő hetekben szakértői szinten folytatódik majd a munka az új rendelet részleteinek véglegesítése céljából, amelynek befejezését követően az elnökség jóváhagyás végett be fogja nyújtani a kompromisszumos szöveget a tagállamok képviselőinek. Mindkét intézménynek meg kell erősítenie a teljes szöveget, és annak a társjogalkotók általi hivatalos elfogadás előtt jogász-nyelvészi ellenőrzésen is át kell esnie.

A rendelettervezet célja biztosítani, hogy az európai piacon forgalomba hozott és használt MI-rendszerek biztonságosak legyenek, és tiszteletben tartsák az alapvető jogokat és az uniós értékeket, illetve ösztönözni az MI-re irányuló beruházásokat és innovációt Európában.

A tervezet az első olyan jogalkotási javaslat a világon, amely e témával foglalkozik, és így – akárcsak a GDPR – globális standardot jelenthet más joghatóságok számára az MI szabályozása terén. E standardok meghatározásával az EU olyan globális megközelítés kialakítását kívánja előkészíteni, amely olyan mesterséges intelligenciát mozdít elő, amely:

  • etikus
  • biztonságos
  • megbízható

Az MI-kódex preambulumának (16) pontja szerint, a mesterséges intelligencián alapuló manipulatív technikák felhasználhatók arra, hogy nem kívánt magatartásformákra vegyék rá az embereket, vagy megtévesszék őket azáltal, hogy olyan döntésekre ösztökélik őket, amelyek aláássák és csorbítják autonómiájukat, döntéshozatalukat és szabad választásaikat. Az olyan MI-rendszerek forgalomba hozatala, üzembe helyezése vagy használata, amelyek célja az emberi magatartás jelentős mértékű, nagy valószínűséggel testi vagy lelki kárt okozó torzítása rendkívül veszélyes, és ezért azt be kell tiltani. Az ilyen MI-rendszerek olyan szubliminális alkotóelemeket – például audio-, képi és videoingereket – alkalmaznak, amelyeket a személyek nem érzékelhetnek, mivel ezek az ingerek túlmutatnak az emberi észlelésen, vagy más olyan szubliminális technikákat használnak, amelyek úgy ássák alá vagy csorbítják a személy autonómiáját, döntéshozatalát vagy szabad választását, hogy annak az emberek nincsenek tudatában, vagy ha tudatában vannak is, nem is képesek azt irányítani vagy annak ellenállni, például gép-agy agyinterfészek vagy virtuális valóság esetében.

Az Európai Bizottságon belül létrejön egy MI-hivatal a legfejlettebb MI-modellek felügyelete, a szabványok és tesztelési gyakorlatok előmozdításához való hozzájárulás és a közös szabályok betartatása végett valamennyi tagállamban. Az MI-hivatalt független szakértőkből álló tudományos tanácsadó testület segíti. A tagállamok képviselőiből álló MI-Testület szolgál majd koordinációs platformként és a Bizottság tanácsadó szerveként, és fontos szerepet fog a tagállamokra ruházni a rendelet végrehajtása terén, beleértve az alapmodellekre vonatkozó gyakorlati kódexek kidolgozását is.

Végezetül néhány szóban a szankciókról elmondható, hogy a kódex megsértése miatt kiszabott bírságokat a jogsértő vállalat előző pénzügyi évi globális éves árbevételének százalékában vagy egy előre meghatározott összegben határozták meg, attól függően, hogy melyik a magasabb. Ez

  • 35 millió EUR-t vagy 7%-ot jelent a tiltott MI-alkalmazásokkal kapcsolatos jogsértő magatartás esetén,
  • 15 millió EUR-t vagy 3%-ot a kódexben előírt kötelezettségek megsértése esetén,
  • és 7,5 millió EUR-t vagy 1,5%-ot helytelen információk szolgáltatása esetén.

Az ideiglenes megállapodás ugyanakkor a kkv-kra és az induló innovatív vállalkozásokra kiszabható közigazgatási bírságok tekintetében arányosabb felső határokat állapít meg arra az esetre, ha e vállalkozások megsértik a kódex rendelkezéseit. A természetes vagy jogi személyek pedig panaszt nyújthatnak be az illetékes piacfelügyeleti hatósághoz a kódexnek való meg nem felelés miatt, a panaszt az adott hatóság külön e célra kialakított eljárásainak megfelelően kezelik.

Forrás: alaptorvenyblog.hu

Címlapkép: Gerd Altmann / Pixabay