PREVIOUS ARTICLE NEXT ARTICLE

Intelligenza artificiale, il futuro è etico

30 Agosto 2019 · Rita Annunziata · 3 min

  • Il 62% dei consumatori dichiara di riporre una fiducia maggiore nelle aziende che adottano un approccio etico nell’utilizzo dei sistemi di intelligenza artificiale

  • Secondo il 33% dei manager, la mancanza di trasparenza e di eticità è dovuta al fatto di non aver considerato la problematica nella fase di progettazione e sviluppo

  • “Un modo classico per guadagnare fiducia, in particolare le interazioni con l’IA, può essere riassunto in tre parole: trasparenza, responsabilità e responsabilizzazione”, commenta Luciano Floridi, professore dell’Università di Oxford

Garantire l’etica e la trasparenza dei sistemi di intelligenza artificiale è un aspetto fondamentale per il benessere delle aziende. Una ricerca del Capgemini Research Institute spiega qual è il punto di vista dei manager e cosa possono fare le società per dissipare le preoccupazioni dei consumatori

Un manager su due (51%) ritiene che garantire l’etica e la trasparenza dei sistemi di intelligenza artificiale sia un aspetto fondamentale per il benessere delle aziende. Eppure, il 77% è incerto rispetto all’applicazione di tali principi all’interno della propria società. A confermarlo è una ricerca del Capgemini Research Institute, “Why addressing ethical questions in AI will benefit organizations”, che ha analizzato i punti di vista di oltre 4.400 consumatori e 1.580 manager appartenenti a 510 aziende da ogni parte del globo, dagli Stati Uniti alla Cina, dalla Francia alla Svezia.

La divisione è netta, ma separa i manager di tutto il mondo in due categorie non troppo distanti tra loro: gli individui che hanno abbandonato definitivamente i sistemi di intelligenza artificiale quando sono state sollevate preoccupazioni etiche (41%) e coloro che hanno deciso di implementare una versione “annacquata” (“watered-down”) del sistema.

A fare la differenza sono gli stessi consumatori: il 62% degli intervistati dichiara di riporre una fiducia maggiore nelle aziende che adottano un approccio etico nell’utilizzo dei sistemi di intelligenza artificiale. Inoltre, il 74% desidera una trasparenza maggiore quando usufruisce di un servizio erogato con i sistemi di intelligenza artificiale, accanto a un 76% che richiede una regolamentazione in materia.

Ma quali sono le motivazioni che pongono le aziende in contrasto con i desideri dei consumatori e cosa stanno facendo per dissipare le loro preoccupazioni? Secondo il 33% dei manager coinvolti nella ricerca, la mancanza di trasparenza e di eticità è dovuta al fatto di non aver considerato la problematica nella fase di progettazione e sviluppo. Ma, soprattutto, mancherebbero non solo le risorse – economiche e umane – da investire sul tema, ma anche un codice etico dell’AI al quale fare riferimento. “La fiducia è qualcosa di molto difficile da ottenere e molto facile perdere – ha commentato Luciano Floridi, professore di filosofia e etica dell’informazione presso l’Università di Oxford – Ma un modo classico per guadagnare fiducia, in particolare nelle interazioni con l’IA, può essere riassunto in tre parole: trasparenza, responsabilità e responsabilizzazione”.

Secondo il Capgemini Research Institute, in definitiva, i business leader e i responsabili della fiducia e dell’etica aziendale dovrebbero elaborare una strategia e un codice di condotta per quella che la Commissione Europea definisce “l’etica dell’Intelligenza Artificiale”, un sottogruppo dell’etica e della tecnologia applicata che si focalizza sulle questioni etiche sollevate dallo sviluppo, dall’implementazione e dall’utilizzo dell’AI. Inoltre, è necessario creare delle strutture di governance etica e costituire dei team sensibili verso le stesse questioni etiche. Non solo. Affinché un’adeguata fiducia possa essere sviluppata, anche gli stessi utenti devono essere adeguatamente educati e informati, mitigando i pregiudizi nei confronti di questi nuovi sistemi. “Al di là di ciò che è legale o meno, e quindi di ciò a cui devi conformarti, devi determinare ciò che rappresenti come organizzazione – spiega Nicolas Economou, ceo di H5 – Puoi poi definire il tuo codice etico AI sulla base di ciò che rappresenti e, di conseguenza, determinare quale tipo di pratiche di intelligenza artificiale puoi ritenere conformi alla tua etica”.

Rita Annunziata
Rita Annunziata
VUOI LEGGERE ALTRI ARTICOLI SU: