Questa tecnologia ha le potenzialità per coinvolgere, in futuro, le fasce di popolazione relativamente più giovane
L’attività di consulenza svolta con strumenti di intelligenza artificiale determina un’offerta di prodotti che possa variare in modo discriminatorio in relazione alla tipologia di soggetti che interagiscono con l’assistente virtuale
Inoltre, l’Ia può migliorare la gestione dei sinistri, offrendo strumenti che ne velocizzino la trattazione e che consentono di individuare tentativi di frode. L’Ia è utile anche per identificare e scongiurare i tentativi di frode, sono stati sviluppati strumenti di intelligenza artificiale in grado di utilizzare i dati ricavabili dai principali social media per verificare la coerenza tra questi e le circostanze rappresentate dall’assicurato nella richiesta di risarcimento.
Questi strumenti, sottolinea il report, offrono la possibilità di ridurre i tempi e i costi procedurali dei sinistri nonché di prevenire comportamenti fraudolenti, consentendo l’abbassamento del premio per gli assicurati.
In negativo, la capacità dell’Ia di elaborare quantità notevolissime di dati può portare a una sistematica sottovalutazione dei danni dei sinistri in sfavore degli assicurati. Il meccanismo potrebbe funzionare in modo iterativo: inizialmente l’Ia potrebbe stabilire che alcune stime di danno sono sopravvalutate, applicando le istruzioni dell’impresa di assicurazione che richiede sia corrisposto un ristoro adeguato e ragionevole ma il più basso possibile, e fare un’offerta più bassa.
Altro vantaggio riguarda il fatto che l’Ia ha potenzialità enormi soprattutto nell’identificare nuovi collegamenti tra caratteristiche degli individui e pattern di rischio. In prospettiva sarà anche possibile ricavare previsioni sui rischi sanitari individuali dalle informazioni rilevate e condivise tramite personal device (es. che rilevano peso, pressione cardiaca, livello di movimento, apporti calorici etc). Questa possibilità si potrà poi tradurre in una personalizzazione a livello di singolo individuo del premio per le polizze salute, sulla base della condivisione volontaria dei dati raccolti.
Attenzione però perché livelli di personalizzazione così elevati potrebbero mettere a rischio l’inclusività dei prodotti assicurativi, rendendo eccessivamente costoso per alcuni assicurarsi. Inoltre, con il tempo, la base di riferimento degli assicurati potrebbe divenire talmente granulare da rendere non praticabile il risk pooling, sul quale si basa, almeno in parte, la capacità di produrre reddito di un’impresa di assicurazione. Ancora, l’individualizzazione del premio potrebbe rendere non assicurabili i gruppi più vulnerabili, o perché non è possibile monitorare nei loro confronti i comportamenti che possono portare ad un maggiore risparmio, o perché sono più rischiosi o considerati tali perché rientranti in una categoria così classificata dagli algoritmi.
Il difficile è dunque trovare il giusto bilanciamento tra rischio e premio, con il conseguente beneficio per utenti meno rischiosi, e la necessità di non escludere dalla platea dei potenziali assicurabili altre categorie più deboli. “Nella personalizzazione del premio si annida, poi, il maggior rischio di discriminazione, che, pur trasversale a tutte le ipotesi di utilizzo dell’ia, potrebbe avere in questo caso un impatto economico e sociale diretto poiché si tradurrebbe in una diversa quantificazione del prezzo da pagare per poter beneficiare dell’assicurazione”, sottolinea il report.
Un altro problema, secondo l’analisi dell’Ivass è che l’attività di consulenza svolta con strumenti di intelligenza artificiale determina un’offerta di prodotti che possa variare in modo discriminatorio in relazione alla tipologia di soggetti che interagiscono con l’assistente virtuale o che le modalità di utilizzo dei dati sia lesivo della privacy.
Altro pericolo, soprattutto per i prodotti assicurativi, è che all’offerta di una polizza si accompagnino anche tentativi di indirizzare o modificare il comportamento del consumatore, in una forma di condizionamento occulto se questi non ne è consapevole. “Anche se non si tratta di esperimenti diffusi al momento, sono possibili schemi di distribuzione di polizze attraverso l’utilizzo di intelligenza artificiale che configurano forme di condizionamento comportamentale, che, da un lato, limitano, in modo indiretto, la libertà di scelta dell’assicurando, e, dall’altro, possono svolgere una meritoria attività di prevenzione, migliorando la qualità della vita e la sicurezza degli assicurati”, sottolinea il report.
Il meccanismo della scatola nera, molto diffuso in Italia, ha la potenzialità per essere utilizzato per modificare il comportamento della clientela a fronte di un sostanzioso sconto sulla polizza auto. In tutti questi casi il cliente potrebbe essere condizionato nella libera espressione delle proprie preferenze dall’offerta di ritorni economici per una serie di comportamenti potenzialmente molto ampia. Le modalità di intervento delle assicurazioni ne potrebbero essere radicalmente mutate: da reattive divenire pro-attive.