Il 2024 può essere considerato l’anno più elettivo di sempre: nel giro di dodici mesi andranno alle urne più di 4miliardi di elettori in 76 Paesi diversi. Questo significa che il 51% della popolazione globale sarà chiamata a votare. Tra queste spiccano le elezioni presidenziali che si terranno negli Stati Uniti e le votazioni che definiranno il Parlamento europeo. Eppure negli ultimi anni a concorrere nelle elezioni non sono più solo i candidati, ma si è imposto un nuovo player: gli hacker. Il rischio di attacchi hacker o la diffusione di fake news che mettano in cattiva luce un candidato sono aumentati rapidamente nel corso degli ultimi anni. Sabotare le elezioni e mettere a rischio i processi democratici diventa di colpo molto semplice attraverso l’uso dell’intelligenza artificiale.
Quello delle elezioni è solo un esempio, la realtà è che l’intelligenza artificiale nelle mani sbagliate diventa una nuova arma nell’arsenale già complesso degli attacchi alla cybersecurity. Da questo punto di vista, l’AI rappresenta solo un rischio o anche uno scudo con cui proteggersi?
Hacker all’attacco: l’intelligenza artificiale come arma…
Se fino a qualche anno fa i software base dei computer erano in grado di identificare e difendersi dagli attacchi di phishing, ora la situazione è ben diversa. Mentre nel passato una grammatica scorretta, domini sospetti e link discutibili erano facili da individuare, ora distinguere casi di phishing è sempre più difficile. Capita spesso a chiunque di svegliarsi la mattina con messaggi molto simili a quelli dei corrieri, che indicano un pacco bloccato in dogana, con relativo link da cliccare per sbloccare il processo, oppure con mail relative ad un rischio per le proprie carte di credito. Questo è stato reso possibile grazie all’intelligenza artificiale. “Gli strumenti di AI generativa, come WormGPT2, addestrata su dati relativi al malware e sviluppata specificamente per le attività criminali, può non solo eliminare gli indizi facili da individuare nelle e-mail di phishing, ma anche abbassare la soglia per diventare un attore malintenzionato”, spiega Mobeen Thair, Director Research di WisdomTree.
Insomma, per gli hacker non è più necessario saper navigare nel darkweb, affidandosi a Google diventa facilissimo sviluppare un attacco in modo rapido e semplice.
Ma una volta che l’attacco fallisce, allora il computer o il sito sono sicuri? Anche in questo caso, la risposta è no. L’AI generativa torna in gioco, questa può infatti aiutare l’hacker a sviluppare un codice malware che impara e si evolve, diventando più intelligente dopo un tentativo fallito. Se il software di cybersecurity applicato al proprio computer è abbastanza forte da opporsi all’attacco hacker, ma ha delle vulnerabilità, allora il codice malware tornerà più forte e sfrutterà proprio queste debolezze per insinuarsi nel dispositivo.
Così, molto rapidamente, sarà semplice per l’hacker entrare in possesso dei dati personali sensibili, potendo poi così vendere sul mercato nero documenti falsi.
L’AI non è solo al servizio degli hacker, ma è anche un’arma molto forte nelle mani dei creatori di fake news e deepfake. Secondo il World Economic Forum, l’altissima qualità dei prodotti video creati tramite l’intelligenza artificiale diventa sempre di più un rischio. Basti pensare che nel giro di un mese (tra inizio dicembre 2023 e inizio gennaio 2024), sono stati identificati oltre 100 video deepfake di pubblicità del primo ministro inglese Rishi Sunak.
…intelligenza artificiale anche come scudo
Se è vero che l’intelligenza artificiale ha reso gli attacchi hacker sempre più sofisticati, perché non sfruttarla anche per difendersi da questi?
L’AI offre un modo rapido, efficiente e automatico per analizzare enormi quantità di dati, proprio per questo è un ottimo alleato per riconoscere tendenze e anomalie che potrebbero indicare vulnerabilità di sistema, così da colmarle prima di un possibile attacco.
Molto spesso, senza neppure rendersene conto, sono gli stessi individui a mettere in pericolo i propri dati sensibili. Utilizzando le stesse password o semplicemente facendo errori umani. L’AI generativa cerca di colmare a queste mancanze, rendendo automatizzati processi ripetitivi, con un occhio particolare al mondo cloud. Infatti, sono sempre di più le applicazioni collegate ad un solo cloud centrale, se l’hacker riuscisse ad entrare in possesso dei dati per accedervi, avrebbe a disposizione un numero altissimo di informazioni.
Inoltre, quando si pensa agli attacchi alla cybersecurity si pensa sempre che l’unico mezzo sia il malware, in realtà sono sempre meno gli hacker che li utilizzano: se nel 2019 solo il 40% degli attacchi era stato possibile senza l’uso di un malware, nel 2023 questi sono stati il 75%. “Ciò suggerisce che gli aggressori si stanno spostando verso mezzi più rapidi ed efficaci per infiltrarsi nelle organizzazioni bersaglio, utilizzando mezzi come l’ingegneria sociale piuttosto che contare sempre sull’inserimento di malware nel sistema della vittima”, spiega l’esperto. Inoltre, il tempo necessario per prendere le informazioni di cui gli hacker hanno bisogno continua a diminuire, in alcuni casi sono sufficienti solo un paio di minuti. È chiaro che per l’uomo sarebbe veramente complicato reagire in tempi così ristretti, l’AI invece lo rende possibile.
Lo scorso anno il costo medio delle violazioni di dati per le organizzazioni è stato di 4,45 milioni di dollari. In una simile situazione, investire nella cybersecurity non è solo un’occasione interessante per il proprio portafoglio, ma un vero investimento per la protezione dei propri dati.