Przełom w sztucznej inteligencji budzi obawy dotyczące kampanii wywierania wpływu, ponieważ do prowadzenia kampanii dezinformacyjnych na dużą skalę potrzebne będzie znacznie mniej zasobów ludzkich i finansowych. Obecnie stało się jasne, że same systemy sztucznej inteligencji są w stanie dezinformować, a tym samym mogą znacząco podważać zaufanie społeczne do instytucji demokratycznych.

Według podsumowania opublikowanego przez Biuro Analiz Parlamentu Europejskiego (EPRS) w 2023 r. przełom w dziedzinie generatywnej sztucznej inteligencji (zwanej dalej: AI) stanowi powód do niepokoju w odniesieniu do kampanii wywierania wpływu, ponieważ do ich przeprowadzenia potrzebne będzie znacznie mniej zasobów ludzkich i finansowych prowadzić zakrojone na szeroką skalę kampanie dezinformacyjne. Dokument EPRS zawiera między innymi kilka analiz i badań. Organizacja Współpracy Gospodarczej i Rozwoju (OECD) podkreśla, że ​​połączenie modeli językowych sztucznej inteligencji (poprzez otrzymywanie, przetwarzanie i przechowywanie informacji w postaci wiedzy, rozumienia i tworzenia języka) z dezinformacją może już prowadzić w dużym stopniu do oszustwa i może znacząco nadszarpnąć zaufanie społeczne do instytucji demokratycznych. Teraz stało się jasne, że systemy sztucznej inteligencji same w sobie mogą wprowadzać w błąd. Badanie wykazało, że narzędzie Google dotyczące sztucznej inteligencji Bard wygenerowało przekonująco fałszywe informacje w 78 ze 100 narracji przetestowanych w badaniu (Bard to chatbot oparty na generatywnej sztucznej inteligencji, który może tworzyć komunikaty brzmiące jak ludzie). teksty, artykuły i treści z mediów społecznościowych w odpowiedzi na prośby i pytania użytkowników).

Nowa wersja ChatGPT, ChatGPT-4, jest jeszcze bardziej podatna na generowanie fałszywych informacji (może odpowiadać fałszywymi i wprowadzającymi w błąd informacjami 100 razy na 100), dzięki czemu jest bardziej przekonująca pod względem zagrożenia niż jej poprzednik, ChatGPT-3.5 ( co wygenerowało 80 przypadków na 100 fałszywych odpowiedzi). Wyniki pokazują, że chatbot – lub podobne narzędzie korzystające z tej samej technologii – można teraz skutecznie wykorzystać do szerzenia dezinformacji na szeroką skalę, której skutki polityczne i znaczenie są nieprzewidywalne. Ten ostatni przypadek podkreśla również, w świetle ustaleń NewsGuard, że OpenAI wprowadziło znacznie potężniejszą wersję swojej technologii AI (ze względu na konkurencję rynkową) przed naprawieniem najbardziej krytycznych błędów wcześniejszej wersji. Takie firmy obiecują, że są świadome zagrożeń i starają się nimi zarządzać: np. OpenAI stojący za ChatGPT zapowiedział, że będzie monitorował wykorzystanie aplikacji, aby skutecznie odfiltrować działania mające wpływ na politykę .

Platformy Big Tech mają możliwości ograniczenia fałszywych wiadomości, szczególnie w oparciu o doświadczenia związane z kampanią brexitową czy wyborami prezydenckimi w USA w 2016 i 2020 roku. W przypadku tych platform nadal jednak nie ma jednolitej regulacji, co tłumaczy się głównie różnicami pomiędzy europejskim i amerykańskim myśleniem prawniczym. Kampania przed wyborami prezydenckimi w USA w 2024 r. stawia czoła stale rosnącym wyzwaniom związanym z dezinformacją opartą na sztucznej inteligencji, dlatego na przykład automatyczny telefon podszywający się pod prezydenta USA Joe Bidena już wywołuje szczególny alarm (ze względu na deepfake dźwięku). Wiadomość telefoniczna w formie cyfrowej „fałszuje” głos obecnego prezydenta, powtarzając jednocześnie jeden z podpisów Bidena: W automatycznej rozmowie telefonicznej namawiano mieszkańców New Hampshire, aby nie głosowali w prawyborach Demokratów w styczniu 2024 r., co skłoniło władze stanowe do wszczęcia śledztwa w związku z możliwym stłumieniem ( wstrzymanie) wyborców.

Wasim Khaled, dyrektor generalny firmy Blackbird.AI zajmującej się tworzeniem oprogramowania, powiedział, że łatwość, z jaką można tworzyć i rozpowszechniać fałszywe pliki audio, komplikuje i tak już hiperspolaryzowany krajobraz polityczny, podważa zaufanie do mediów i pozwala każdemu twierdzić, że dysponuje „sfabrykowanymi dowodami” w oparciu o na faktach. Chińska firma ByteDance, właściciel platformy TikTok, zaprezentowała niedawno StreamVoice, narzędzie oparte na sztucznej inteligencji, które w czasie rzeczywistym przekształca głos użytkownika w dowolną żądaną alternatywę. Ustawa o usługach cyfrowych (w skrócie DSA), czyli Rozporządzenie (UE) 2022/2065, aktualizuje dyrektywę o handlu elektronicznym z 2000 r. w sprawie treści nielegalnych, przejrzystej reklamy i dezinformacji, mając także na celu wprowadzenie prawa konkurencji w najważniejszych punktach po sobie -typowa dotychczas regulacja powinna dotyczyć publicznego komunikowania politycznego na platformach mediów społecznościowych. Rozporządzenie zostało ogłoszone w Dzienniku Urzędowym Unii Europejskiej 27 października 2022 r., jego podstawowe zasady obowiązują od 16 listopada 2022 r., a zdecydowana większość z nich obowiązuje od 17 lutego 2024 r. DSA zachęca do aktywności największe platformy, które będą zobowiązane do corocznej analizy wpływu swoich usług, a zwłaszcza algorytmicznego (opartego na sztucznej inteligencji) systemu rekomendacji rankingującego treści, na proces wyborczy.

Komisja Europejska przedstawiła swoją propozycję 21 kwietnia 2021 r., a następnie 9 grudnia 2023 r. Prezydencja Rady i negocjatorzy Parlamentu Europejskiego osiągnęli wstępne porozumienie w sprawie propozycji zharmonizowanych zasad dotyczących sztucznej inteligencji (dalej: AI Codex ). Główną ideą jest uregulowanie zdolności sztucznej inteligencji do wyrządzania szkód społeczeństwu w oparciu o podejście oparte na ryzyku.

W tygodniach następujących po tymczasowym porozumieniu na szczeblu eksperckim będą kontynuowane prace nad sfinalizowaniem szczegółów nowego rozporządzenia, po czym prezydencja przedstawi kompromisowy tekst przedstawicielom państw członkowskich do zatwierdzenia. Obie instytucje muszą zatwierdzić cały tekst, który musi zostać poddany kontroli prawno-językowej przed oficjalnym przyjęciem przez współprawodawców.

Celem projektu rozporządzenia jest zapewnienie, aby systemy sztucznej inteligencji wprowadzane i wykorzystywane na rynku europejskim były bezpieczne oraz szanowały prawa podstawowe i wartości UE, a także zachęcanie do inwestycji i innowacji w zakresie sztucznej inteligencji w Europie.

Projekt jest pierwszą propozycją legislacyjną na świecie poruszającą tę tematykę, a tym samym, podobnie jak RODO, może stać się światowym standardem dla innych jurysdykcji w zakresie regulacji AI. Definiując te standardy, UE zamierza utorować drogę globalnemu podejściu promującemu sztuczną inteligencję, która:

  • etyczny
  • bezpieczna
  • niezawodny

Zgodnie z preambułą (16) Kodeksu AI techniki manipulacyjne oparte na sztucznej inteligencji mogą być wykorzystywane do nakłaniania lub oszukiwania ludzi do niepożądanych zachowań poprzez nakłanianie ich do podejmowania decyzji podważających i upośledzających ich autonomię, podejmowanie decyzji i wolny wybór. Marketing, wdrażanie lub wykorzystywanie systemów sztucznej inteligencji, których celem jest znaczne zniekształcenie ludzkich zachowań, najprawdopodobniej powodujące szkody fizyczne lub psychiczne, jest niezwykle niebezpieczne i dlatego powinno być zakazane. Takie systemy sztucznej inteligencji wykorzystują komponenty podprogowe, takie jak bodźce dźwiękowe, wizualne i wideo, których dana osoba nie może dostrzec, ponieważ bodźce te znajdują się poza zasięgiem ludzkiej percepcji, lub wykorzystują inne techniki podprogowe, które podważają lub osłabiają autonomię, podejmowanie decyzji lub wolny wybór danej osoby, co ludzie nie są tego świadomi, a nawet jeśli są tego świadomi, nie mogą tego kontrolować ani się temu oprzeć, na przykład w przypadku interfejsów maszyna-mózg lub rzeczywistości wirtualnej.

W Komisji Europejskiej zostanie utworzone biuro ds. sztucznej inteligencji, które będzie nadzorować najbardziej zaawansowane modele sztucznej inteligencji, przyczyniać się do promowania standardów i praktyk testowania oraz egzekwować wspólne zasady we wszystkich państwach członkowskich. Biuro MI jest wspomagane przez naukową radę doradczą niezależnych ekspertów. Rada AI, złożona z przedstawicieli Państw Członkowskich, będzie pełnić funkcję platformy koordynacyjnej i organu doradczego Komisji oraz przypisze Państwom Członkowskim ważną rolę we wdrażaniu rozporządzenia, w tym w opracowywaniu kodeksów praktyki dla podstawowych modeli.

Na koniec, w kilku słowach na temat sankcji, kary nakładane za naruszenie Kodeksu ustalane są jako procent całkowitej rocznej sprzedaży firmy, która dopuściła się naruszenia w poprzednim roku finansowym, lub z góry określonej kwoty, w zależności od tego, która wartość jest wyższa. Ten

  • 35 mln EUR lub 7% w przypadku nielegalnych zachowań związanych z zabronionymi aplikacjami AI,
  • 15 mln EUR lub 3% w przypadku naruszenia obowiązków przewidzianych w kodeksie,
  • oraz 7,5 mln euro lub 1,5% za podanie nieprawidłowych informacji.

Jednocześnie tymczasowe porozumienie ustanawia bardziej proporcjonalne górne limity kar administracyjnych, jakie mogą zostać nałożone na MŚP i innowacyjne przedsiębiorstwa typu start-up w przypadku naruszenia przez te przedsiębiorstwa przepisów kodeksu. Osoba fizyczna lub prawna może złożyć skargę do właściwego organu nadzoru rynku w związku z nieprzestrzeganiem kodeksu, reklamacja będzie rozpatrywana zgodnie ze specjalnie opracowanymi w tym celu procedurami danego organu.

Źródło: alaptorvenyblog.hu

Zdjęcie na okładce: Gerd Altmann / Pixabay