Realtà e simulazione come strade parallele: l’ascesa delle intelligenze artificiali (AI) generative
Il rapido e notevole progresso della capacità delle intelligenze artificiali (IA) generative di creare ogni tipo di media, come testi, immagini, audio e video, in risposta a specifici input (cosidetti prompt) continua a sorprenderci.
In un breve lasso di tempo, le artificial intelligence sono diventate così avanzate da produrre contenuti virtualmente indistinguibili da quelli reali, specialmente se sottoposti al primo approccio di immediatezza con il quale spesso ci interfacciamo ai social media.
L’influenza dei deep fake nella società moderna
In modo simile e talvolta anche più incisivo rispetto a quanto accadde con il fenomeno delle cosiddette fake news all’inizio dell’era social, questi contenuti possono influenzare e manipolare le opinioni, i comportamenti e le tendenze della società globale.
Si è dunque sviluppato il più temibile fenomeno dei cosiddetti deep fake. Come abbiamo visto anche recentemente, le tecnologie consentono ora di creare video del tutto artefatti in cui si possono ad esempio attribuire a soggetti dichiarazioni che in realtà non hanno mai rilasciato. Da qui, emerge la preoccupazione e l’interesse tra leader politici, giuristi e legislatori di arginare tale fenomeno, specialmente in un anno record, come il 2024, che vede circa 2 miliardi di individui in tutto il mondo chiamati alle urne.
Un patto globale per salvare le elezioni
Il tema è stato al centro della sezione dedicata alla tecnologia della Conferenza di Monaco sulla sicurezza (Munich Security Conference, Msc), tenutasi nel febbraio 2024. Questa rappresenta il forum più importante al mondo di dibattito e confronto in materia di sicurezza e politica estera, e ospita ogni anno personalità di spicco nei campi politico, giuridico, militare, della società civile e tecnologico.
Tra gli esiti più importanti della Msc, vi è un documento dal titolo “A tech accord to combat deceptive use of AI in 2024 elections” firmato da 20 tra le più influenti multinazionali impegnate nel settore delle IT, tra le quali Amazon, Adobe, Google, Microsoft, Meta, OpenAI e Ibm. L’accordo è mirato al contrasto dell’utilizzo delle IA generative in modi fuorvianti o ingannevoli nei confronti degli elettori attraverso “audio, video e immagini generati dall’IA che falsificano o alterano ingannevolmente l’aspetto, la voce o le azioni di candidati politici, funzionari elettorali e altre figure chiave in un’elezione democratica o che forniscono false informazioni agli elettori su quando, dove e come possono votare legittimamente”.
Le multinazionali parti dell’accordo si propongono quindi, da un lato, di cooperare al fine di sviluppare tecnologie di rilevamento che consentano di certificare l’autenticità, la veridicità e la fattura di un contenuto. D’altro lato, sul piano invece della gestione delle proprie piattaforme, le cosiddette Big tech si pongono l’obiettivo di utilizzare i suddetti strumenti per segnalare contenuti che favoriscano una disinformazione (per l’appunto i deep fake) e di contrastarne la diffusione.
I watermark tra innovazione e limitazioni tecnologiche
L’obiettivo della Msc è più semplice in teoria che nella pratica poiché, ad oggi, simili tecnologie che posseggano un grado di automazione e certezza sufficiente a occuparsi in modo efficace del problema non esistono. Tuttavia, tra di esse, quelle che appaiono come più promettenti sono i watermark, consistenti in un marchio in grado di identificare inequivocabilmente la provenienza del file in oggetto (così che il fruitore finale possa comprendere la sua fonte).
I watermark si possono categorizzare in due principali tipologie: i watermark “visibili” e i watermark “invisibili”.
I primi sono etichette o grafiche che vengono sovrapposte direttamente al contenuto, mentre i secondi sono integrati al suo interno in modo da non poter essere rilevati dall’uomo. Sono esempi di questi ultimi specifiche informazioni inserite nei metadati del file, oppure i watermark impliciti come microscopici pixel aggiunti ad un’immagine, o suoni inaudibili in una traccia audio. È sempre necessario utilizzare specifici software per rilevare i watermark invisibili.
Tali tecnologie, lungi dall’essere mature, richiederebbero tuttavia ulteriori sviluppi e miglioramenti. I watermark, allo stato dell’arte, sono infatti facilmente aggirabili attraverso azioni come un ritaglio o screenshot di un’immagine, o tramite l’utilizzo di software di IA generativa che non aderiscano agli standard tecnici in materia, come quello proposto dall’Adobe coalition for content provenance and authenticity (C2PA).
Il gruppo, del quale fanno parte diverse tra le più importanti aziende nel settore IT, impone agli sviluppatori di software di IA generativa di integrare un riferimento all’interno dei metadati del file, riconoscibile in automatico dalle piattaforme sulle quali tale file circolerà successivamente. Tuttavia, la partecipazione al C2PA non è obbligatoria e, di conseguenza, si stanno diffondendo numerosi software open source di IA generativa non soggetti a tali vincoli. Ne consegue che chi ha interesse a diffondere un video falso su internet non dovrebbe fare altro che non aderire agli standard (non obbligatori) menzionati.
Watermark contro la disinformazione: l’approccio di Meta sulla AI
La buona notizia però risiede nella volontà che sembra esserci nei principali player del mercato di auto-regolamentarsi e agire in una virtuosa ottica di compliance.
Nel tentativo di fare delle proprie piattaforme i precursori su questi temi, la nota multinazionale Meta ha adottato delle prime linee guida già nel febbraio 2024.
Esse prevedevano che ogni contenuto manipolato per mezzo di un’IA generativa sarebbe stato rimosso. Meta stessa si è però resa conto di come fosse probabilmente opportuno adottare un approccio meno “strict” e proporzionato che riconosca come “l’IA generativa sta diventando uno strumento mainstream per l’espressione creativa”.
Da qui, la revisione delle linee guida (nell’aprile 2024) in cui Meta informa che a essere cancellati saranno solo i contenuti che violano le condizioni d’uso delle piattaforme o, comunque, quelli ritenuti più pericolosi per gli utenti. Le nuove linee guida segnalano dunque l’intenzione dell’azienda statunitense, a partire dal maggio 2024, di includere nelle sue piattaforme (Instragram, Facebook e Threads) dei watermark in grado di segnalare agli utenti contenuti prodotti per mezzo di IA generative.
I contenuti da etichettarsi saranno individuati e segnalati automaticamente dalla piattaforma qualora il software di IA generativa che li ha prodotti aderisca a standard tecnici riconosciuti come quello di Adobe C2PA. In caso contrario, Meta specifica che sarà richiesto agli utenti dei propri social di auto-segnalare detti contenuti.
La corsa alla regolamentazione delle AI generative: normative a confronto
Premesso tutto quanto sopra, è indubbio che vi sia una crescente consapevolezza della necessità di regolamentare e monitorare l’uso delle IA generative. Sono in effetti state implementate svariate normative su questa materia in diverse parti del mondo.
L’approccio più deciso sembra provenire dalla Cina, la quale, sin dall’agosto 2023, ha imposto per legge a chiunque programmi e metta a disposizione del pubblico un software di IA generativa di inserire, da un lato, un’etichetta che indichi la provenienza del contenuto e, dall’altro, metadati e watermark “impliciti”.
Con minore tempestività, anche il presidente degli Stati Uniti Joe Biden ha recentemente (ottobre 2023) firmato un executive order sull’IA che richiede all’amministrazione di sviluppare meccanismi efficaci di etichettatura e di provenienza dei contenuti. Vi sono, peraltro, richieste rivolte al Congresso affinché approvi una legislazione sui contenuti generati dall’IA nel 2024 per garantire che le norme sui meccanismi di watermarking siano applicate.
Anche l’Unione europea è intervenuta sul punto con il celebre AI Act. La citata normativa, all’Articolo 50, richiede ai fornitori di sistemi di IA generativa di assicurarsi che il file creato contenga un marchio rilevabile da un software apposito che ne segnali la provenienza. Inoltre, agli utilizzatori dei software è imposto di segnalare se il contenuto che stanno diffondendo o utilizzando sia un deepfake.
Infine, persino l’Organizzazione delle Nazioni Unite (Onu) si è espressa sul tema, con una risoluzione dell’Assemblea Generale – non vincolante – adottata nel marzo 2024 e supportata da più di 120 Stati, che incoraggia lo sviluppo di tecnologie efficaci, affidabili e accessibili per distinguere materiale generato dall’IA da quello umano. Su un piano più generale, la risoluzione, prima in materia da parte dell’Onu, si pone come obiettivo la creazione di sistemi di IA sicuri e affidabili che possano efficacemente accompagnare lo sviluppo sostenibile globale.
Oltre l’inganno: le tutele necessarie
In conclusione, l’avvento della Generative AI sta ridefinendo radicalmente il panorama della produzione e del consumo di contenuti digitali.
Strumenti come ChatGpt, Dall–E e altri stanno consentendo agli utenti di generare una vasta gamma di contenuti, dall’immagine al testo, in modo sempre più realistico. Tuttavia, questa rapida evoluzione porta con sé delle sfide cruciali. La confusione tra contenuti generati dall’IA e quelli creati da esseri umani solleva preoccupazioni significative riguardo alla diffusione di disinformazione, nonché circa i temi della privacy e della proprietà intellettuale.
La necessità di trasparenza nel distinguere i contenuti “sintetici” generati dall’IA da quelli umani sta emergendo come un problema centrale: policymaker e addetti del settore devono affrontare la sfida di identificare soluzioni innovative per garantire che gli utenti possano discernere quanto gli si prospetta dinnanzi (ad esempio video sui social), in un contesto dove le risorse tecnologiche non sono ancora giunte a una piena maturità.
Per questa ragione, sarà cruciale muoversi in direzione di un utilizzo etico dell’AI: mentre abbracciamo l’innovazione, non dobbiamo dimenticare l’importanza di preservare l’integrità e la fiducia nell’ambiente digitale. Attraverso l’adozione di approcci trasparenti, sistemi di accountability e strumenti di protezione come il watermarking, possiamo guidare l’AI verso un futuro in cui la creatività possa prosperare senza compromettere l’onestà e l’autenticità dei contenuti.
(Articolo scritto in collaborazione con Federico Aluigi e Jacopo Piemonte, studio legale De Berti Jacchia Franchini Forlani)