La svolta nel campo dell’intelligenza artificiale solleva preoccupazioni riguardo alle campagne di influenza, poiché saranno necessarie molte meno risorse umane e finanziarie per condurre campagne di disinformazione su larga scala. È ormai chiaro che gli stessi sistemi di intelligenza artificiale sono capaci di disinformare e quindi possono minare in modo significativo la fiducia del pubblico nelle istituzioni democratiche.

Secondo una sintesi pubblicata nel 2023 dal Servizio di ricerca del Parlamento europeo (EPRS), l’avvento dell’intelligenza artificiale generativa (di seguito: AI) è motivo di preoccupazione per quanto riguarda le campagne di influenza, poiché saranno necessarie molte meno risorse umane e finanziarie per realizzare campagne di disinformazione su larga scala. Il documento EPRS fornisce diversi studi e ricerche come esempi, tra questi. L’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) sottolinea che la combinazione di modelli linguistici di intelligenza artificiale (ricevendo, elaborando e memorizzando informazioni come conoscenza, comprensione e creazione di linguaggio) e di disinformazione può già portare a un ampio grado di inganno e può compromettere in modo significativo la fiducia del pubblico nelle istituzioni democratiche. È ormai diventato chiaro che gli stessi sistemi di intelligenza artificiale possono disinformare: uno studio ha rilevato che lo strumento di intelligenza artificiale di Google Bard ha prodotto informazioni false in modo convincente in 78 narrazioni su 100 testate nella ricerca (Bard è un chatbot generativo basato sull'intelligenza artificiale in grado di produrre informazioni dal suono umano testi, articoli e contenuti dei social media in risposta alle richieste e domande degli utenti).

La nuova versione di ChatGPT, ChatGPT-4, è ancora più incline a generare informazioni false (può rispondere con informazioni false e fuorvianti 100 volte su 100), quindi è più convincente in termini di pericolosità rispetto al suo predecessore, ChatGPT-3.5 ( che ha generato 80 volte su 100 risposte false). I risultati mostrano che un chatbot – o uno strumento simile che utilizza la stessa tecnologia di base – può ora essere utilizzato efficacemente per diffondere disinformazione su larga scala, il cui impatto politico e il cui significato sono imprevedibili. Quest'ultimo caso evidenzia inoltre, alla luce delle scoperte di NewsGuard, che OpenAI ha introdotto una versione molto più potente della sua tecnologia AI (a causa della concorrenza sul mercato) prima di correggere i bug più critici della versione precedente. Queste aziende promettono di essere consapevoli dei rischi e di cercare di gestirli: ad esempio, OpenAI, che è dietro ChatGPT, ha annunciato che monitorerà l'utilizzo dell'applicazione per filtrare efficacemente le attività che influenzano la politica .

Le piattaforme Big Tech hanno l’opportunità di frenare le fake news, soprattutto sulla base dell’esperienza della campagna Brexit o delle elezioni presidenziali americane del 2016 e del 2020. Per queste piattaforme però non esiste ancora una regolamentazione uniforme, il che si spiega principalmente con le differenze tra la mentalità giuridica europea e quella americana. La campagna per le elezioni presidenziali americane del 2024 si trova ad affrontare le sfide sempre crescenti della disinformazione basata sull’intelligenza artificiale, quindi ad esempio il robocall che si spaccia per il presidente americano Joe Biden sta già suscitando particolare allarme (a causa del deepfake audio). Il messaggio telefonico "falsifica" digitalmente la voce dell'attuale presidente riecheggiando una delle battute distintive di Biden: il robocall esortava i residenti del New Hampshire a non votare alle primarie democratiche del gennaio 2024, spingendo le autorità statali ad avviare un'indagine in relazione alla possibile soppressione ( ritenuta) degli elettori.

Wasim Khaled, amministratore delegato della società di sviluppo software Blackbird.AI, ha affermato che la facilità con cui è possibile creare e distribuire audio falso complica un panorama politico già iperpolarizzato, mina la fiducia nei media e consente a chiunque di affermare di avere "prove fabbricate" sulla base di sui fatti. La cinese ByteDance, proprietaria della piattaforma TikTok, ha recentemente presentato StreamVoice, uno strumento basato sull'intelligenza artificiale che trasforma la voce di un utente in qualsiasi alternativa desiderata in tempo reale. Il Digital Services Act (in breve DSA), cioè il Regolamento (UE) 2022/2065, aggiorna la direttiva sul commercio elettronico del 2000 in materia di contenuti illegali, pubblicità trasparente e disinformazione, puntando anche a introdurre il diritto della concorrenza nei punti più importanti dopo l'auto -la regolamentazione che finora è stata un obbligo tipico dovrebbe applicarsi alla comunicazione politica pubblica sulle piattaforme dei social media. Il decreto è stato annunciato nella Gazzetta Ufficiale dell'Unione Europea il 27 ottobre 2022, le sue norme di base sono applicabili dal 16 novembre 2022 e la stragrande maggioranza di esse è applicabile dal 17 febbraio 2024. La DSA incoraggia le piattaforme più grandi ad essere attive, che saranno obbligate ad analizzare annualmente come i loro servizi, in particolare il loro sistema di raccomandazione algoritmico (basato sull’intelligenza artificiale) che classifica i contenuti, hanno un impatto sul processo elettorale.

La Commissione Europea ha presentato la sua proposta il 21 aprile 2021, poi il 9 dicembre 2023 la Presidenza del Consiglio e i negoziatori del Parlamento Europeo hanno raggiunto un accordo provvisorio sulla proposta di norme armonizzate per l’intelligenza artificiale (di seguito: AI Codex ). L’idea principale è quella di regolare la capacità dell’intelligenza artificiale di causare danni alla società attraverso un approccio basato sul rischio.

Nelle settimane successive all'accordo provvisorio, proseguiranno i lavori a livello di esperti per finalizzare i dettagli del nuovo regolamento, dopodiché la presidenza sottoporrà il testo di compromesso ai rappresentanti degli Stati membri per l'approvazione. Entrambe le istituzioni devono confermare l'intero testo e quest'ultimo deve essere sottoposto a un controllo giuridico-linguistico prima dell'adozione ufficiale da parte dei colegislatori.

Lo scopo del progetto di regolamento è garantire che i sistemi di IA immessi e utilizzati sul mercato europeo siano sicuri e rispettino i diritti fondamentali e i valori dell’UE, nonché incoraggiare gli investimenti e l’innovazione nell’IA in Europa.

La bozza è la prima proposta legislativa al mondo che affronta questo argomento e quindi, come il GDPR, può diventare uno standard globale per altre giurisdizioni nel campo della regolamentazione dell’IA. Definendo questi standard, l’UE mira ad aprire la strada a un approccio globale che promuova l’intelligenza artificiale che:

  • etico
  • sicuro
  • affidabile

Secondo il preambolo (16) del Codice AI, le tecniche manipolative basate sull’intelligenza artificiale possono essere utilizzate per indurre o ingannare le persone a comportamenti indesiderati inducendole a prendere decisioni che ne minano e pregiudicano l’autonomia, la capacità decisionale e la libera scelta. La commercializzazione, la diffusione o l’uso di sistemi di intelligenza artificiale il cui scopo è distorcere il comportamento umano in misura significativa, causando molto probabilmente danni fisici o mentali, è estremamente pericoloso e dovrebbe pertanto essere vietato. Tali sistemi di intelligenza artificiale utilizzano componenti subliminali come stimoli audio, visivi e video che non possono essere percepiti dalla persona perché gli stimoli vanno oltre la percezione umana, o utilizzano altre tecniche subliminali che minano o compromettono l'autonomia, il processo decisionale o la libera scelta della persona. le persone non ne sono consapevoli o, anche se ne sono consapevoli, non possono controllarlo o resistervi, ad esempio nel caso delle interfacce macchina-cervello o della realtà virtuale.

Verrà creato un ufficio sull’intelligenza artificiale all’interno della Commissione europea per supervisionare i modelli di intelligenza artificiale più avanzati, contribuire alla promozione di standard e pratiche di test e applicare regole comuni in tutti gli Stati membri. L'ufficio MI è assistito da un comitato scientifico consultivo di esperti indipendenti. Il Comitato AI, composto da rappresentanti degli Stati membri, fungerà da piattaforma di coordinamento e organo consultivo per la Commissione e assegnerà un ruolo importante agli Stati membri nell'attuazione del regolamento, compreso lo sviluppo di codici di pratica per i modelli base.

Infine, in poche parole sulle sanzioni, le multe inflitte per violazioni del Codice sono fissate in una percentuale delle vendite annuali globali della società incriminata nell'anno finanziario precedente o in un importo predeterminato, a seconda di quale sia più elevato. Questo

  • 35 milioni di euro o il 7% in caso di comportamenti illeciti legati ad applicazioni di IA vietate,
  • 15 milioni di euro ovvero il 3% in caso di violazione degli obblighi previsti dal codice,
  • e 7,5 milioni di euro o 1,5% per aver fornito informazioni errate.

Allo stesso tempo, l'accordo temporaneo stabilisce limiti massimi più proporzionati per le sanzioni amministrative che possono essere comminate alle PMI e alle start-up innovative nel caso in cui tali imprese violino le disposizioni del codice. Le persone fisiche o giuridiche possono presentare un reclamo all'autorità di vigilanza del mercato competente per mancato rispetto del codice, il reclamo sarà gestito secondo le procedure della predetta autorità appositamente predisposte a tale scopo.

Fonte: alaptorvenyblog.hu

Immagine di copertina: Gerd Altmann / Pixabay