COME ASSICURARE L’AI? LE SFIDE PER IL SETTORE
Fino a qualche anno fa sarebbe stato incredibile, ma l’uso dell’intelligenza artificiale è oggi straordinariamente esteso in ogni campo e interessa tutti i comparti economici, da quelli finanziari a quelli industriali, dalla comunicazione alla vendita al dettaglio, inclusa, ovviamente, l’assicurazione
07/10/2024
👤Autore:
Cinzia Altomare
Review numero: 118
Pagina: 58-61
☁Fonte immagine: Anggalih Prasetya - Shutterstock
Secondo il Global AI Governance Report, pubblicato a settembre da Dla Piper, praticamente tutte le imprese stanno adottando l’intelligenza artificiale in modo consistente e la quasi totalità di quelle intervistate ha dichiarato di avere in corso di realizzazione almeno un progetto che coinvolga questa nuova tecnologia.
Non si tratta certo di una novità: si discute di AI praticamente ovunque. Le sue applicazioni influenzano ormai quasi tutti gli aspetti della nostra vita e dell’economia: decidono quali informazioni vediamo online, interpretano i nostri interessi e determinano quali pubblicità mostrarci, cominciano a essere usate dalla polizia per indagare sui crimini, e dai medici e ricercatori per migliorare le diagnosi e le cure cui ci sottoponiamo. Le aziende utilizzano questa tecnologia per analizzare i candidati a una posizione lavorativa e le assicurazioni hanno già iniziato ad applicarla nella sottoscrizione dei rischi e per migliorare la gestione dei sinistri.
Ciascuno di noi si trova a interfacciarsi con sistemi di AI giornalmente: basta provare ad acquistare un servizio o un prodotto. Considerando quanto questo campo sia recente, è davvero sorprendente lo sviluppo che stiamo osservando.
Ma, come accade per ogni nuova tecnologia, di fronte a tanti vantaggi, esistono dei rischi da tenere ben presenti. Per tale ragione, nel maggio scorso il Consiglio Ue ha approvato l’AI Act: il primo regolamento mondiale sull’intelligenza artificiale, introducendo un sistema di regole per consentire a cittadini, aziende e Stati di cogliere i vantaggi di questa grande trasformazione e provare, allo stesso tempo, a ridurre i problemi che essa comporta.
ATTENZIONE ALLE DISCRIMINAZIONI
I sistemi di AI sono in grado di propagare le discriminazioni che affliggono la società, ove i dati utilizzati per l’addestramento di questi modelli rispecchino particolari inclinazioni sociali più o meno radicate, come può accadere per quelle legate all’appartenenza etnica, al sesso o allo status socioeconomico. Se questi dati dovessero contenere dei pregiudizi, inseriti anche involontariamente da chi elabora gli algoritmi, il sistema di AI potrebbe perpetuarli nei suoi processi decisionali.
Nel settore assicurativo, ad esempio, se i dati storici utilizzati per addestrare uno strumento di valutazione del rischio dovessero contenere preconcetti per alcuni gruppi demografici, il sistema di AI potrebbe inconsciamente perpetuarli, indicando premi iniqui per certe polizze o addirittura negando la copertura a persone appartenenti a specifici gruppi.
C’è poi il grosso problema che attiene alla sicurezza informatica della grande quantità di dati utilizzati per addestrare gli algoritmi. I sistemi di AI potrebbero essere esposti a particolari vulnerabilità, in caso di violazione, manipolazione e di ogni genere di attacchi malevoli cui sarebbero soggetti. L’uso di dati di terzi, infine, potrebbe determinare violazioni dei diritti legati alla proprietà intellettuale, con eventuali controversie sui diritti d’autore e sul segreto commerciale in genere.
SERVONO SPECIFICHE CLAUSOLE CONTRATTUALI
È noto il caso di alcuni famosi quotidiani statunitensi, tra cui il Chicago Tribune e il Denver Post, che hanno fatto causa ad OpenAI e a Microsoft per aver usato illegalmente un gran numero di loro articoli con l’intento di addestrare e potenziare i sistemi di ChatGpt e Copilot. C’è da rilevare come tali quotidiani non abbiano chiesto alcuna somma in risarcimento, ma abbiano semplicemente rivendicato un compenso per i contenuti che le due aziende avrebbero utilizzato senza chiedere il permesso.
Le imprese che adottano sistemi di AI, insomma, si trovano esposte a gravi responsabilità nei confronti di clienti, fornitori, partner etc. e sarà necessario che si conformino agli obblighi previsti dalle normative vigenti, a partire dall’AI Act, adottando politiche per governarne lo sviluppo, l’implementazione e l’utilizzo.
Nel report menzionato, ad esempio, Dla Piper suggerisce di avvalersi di specifiche clausole contrattuali all’interno degli accordi con fornitori e altri stakeholder, allo scopo di delineare con precisione gli obblighi e le eventuali responsabilità legati all’utilizzo dell’AI e di proteggere i dati da violazioni e accessi non autorizzati.
Anche l’adozione di misure organizzative, come programmi di formazione e sensibilizzazione dei dipendenti e collaboratori, potrebbe facilitare la creazione di una cultura aziendale sviluppata in conformità ai requisiti normativi e agli standard etici suggeriti dall’AI Act.
ASSICURARE IL RISCHIO DELL’AI
Essendo dunque palese come l’utilizzo dell’intelligenza artificiale comporti una serie di responsabilità, la prima cosa che ci chiediamo è se sia possibile assicurare tale rischio, ovvero se questo tipo di copertura sia in qualche modo già presente nelle polizze esistenti, o se invece ne servano di nuove e più specifiche.
Determinate tipologie di polizze, come alcune assicurazioni che coprono la responsabilità civile e le polizze cyber, sono certamente in grado di coprire taluni rischi legati all’uso dell’AI, ma la questione non è così semplice.
Come sappiamo, perché un determinato rischio sia assicurabile è necessario che il danno eventualmente causato sia accidentale ed accertabile. Il rischio deve essere inoltre stimabile. Un sottoscrittore, insomma, deve poter valutare le conseguenze prevedibili e determinare il premio più adatto a coprirle.
E qui ci imbattiamo in un primo problema, perché la valutazione di questo tipo di rischio rappresenta ancora una nuovissima frontiera da esplorare.
Se si trattasse solo di adattare una copertura esistente, magari modificando talune esclusioni e limitazioni o inserendo limiti e franchigie particolari, la cosa sarebbe ancora gestibile, ma il tipo di esposizione che può essere generato da una tecnologia così giovane e tanto largamente utilizzata va bene al di là di quanto abbiamo avuto modo di sperimentare fino a ora.
DIETRO LE INVENZIONI DELL’AI C’È UN UMANO
Le questioni irrisolte sono tantissime, a cominciare dalla definizione di prodotto del software utilizzato. Chi sarebbe qui il manufacturer? Parliamo della società che lo ha messo in circolazione, di quella che lo ha adattato alle esigenze dell’utilizzatore, oppure di quella che materialmente lo utilizza? Si tratta soltanto della persona che ha ideato l’algoritmo, oppure dovremmo tenere conto della società che detiene i dati utilizzati per addestrare la macchina?
Non dimentichiamo, ad esempio, che un recente verdetto della Corte Suprema tedesca ha stabilito che le invenzioni generate dall’AI possano essere brevettate, a patto che un essere umano sia indicato come inventore. In particolare, la Bundesgerichtshof ha specificato che il design di una lunchbox, concepito dal sistema Dabus, possa godere della protezione di un brevetto, per quanto ideato dall’intelligenza artificiale.
In questo caso il richiedente, uno scienziato proprietario di Dabus, è stato elencato come l’inventore, delineando un nuovo orizzonte nel dibattito internazionale sulla proprietà intellettuale dei prodotti generati con l’aiuto di questa tecnologia.
In pratica, dunque, assicurare i rischi derivanti dall’uso dell’intelligenza artificiale può risultare assai più complesso di quanto non sia, ad esempio, coprire il cyber risk: ed è noto come in tanti ritengano che quest’ultimo tipo di rischio non sia effettivamente assicurabile, proprio a causa dell’impossibilità di valutarne pienamente le conseguenze, determinare il giusto premio e ottenere sufficiente capacità per risarcirne i possibili danni.
MOFFAT CONTRO AIR CANADA
Prendiamo uno dei tanti casi che si sono verificati per l’uso dei cosiddetti chatbot, quei software che simulano ed elaborano conversazioni umane (scritte o parlate), consentendo agli utenti di interagire con i dispositivi digitali, come se stessero comunicando con una persona reale.
La vicenda riguarda un tale signor Moffat che, in seguito a un lutto familiare voleva prenotare sul sito web di Air Canada un biglietto di andata e ritorno per Toronto, città dove risiedeva il parente defunto. Durante la prenotazione, il soggetto si avvaleva del chatbot online per sapere se la compagnia offrisse sconti in caso di lutto familiare. Il chatbot lo aveva quindi istruito sulle tariffe agevolate previste e sulle modalità per accedervi, aggiungendo che, in caso di acquisto del biglietto a prezzo integrale, sarebbe stato comunque possibile usufruire della riduzione dimostrando la causa di lutto e richiedendo ad Air Canada, entro 90 giorni dall’acquisto, il rimborso della differenza fra quanto pagato e il prezzo ridotto. Il signor Moffat, data l’urgenza del momento, decideva di acquistare i biglietti a prezzo pieno, per poi usufruire del rimborso una volta rientrato da Toronto. Air Canada, però, rigettava la sua successiva richiesta, asserendo che la politica della compagnia non prevedeva alcun rimborso a posteriori.
Moffat esibiva quindi la risposta del chatbot, ma la compagnia, pur riconoscendo l’errore, negava la propria responsabilità per l’accaduto. Il software automatizzato avrebbe ragionato in maniera autonoma e non prevedibile.
RESPONSABILITÀ DELLA COMPAGNIA PER ERRORE DEL CHATBOT
La controversia finiva pertanto davanti al tribunale locale canadese, che analizzava il caso nell’ottica di un alleging negligent misrepresentation. Questa fattispecie si verifica quando un venditore, sul quale sussiste un dovere di diligenza, cagioni un danno a un cliente a causa di dichiarazioni inaccurate e fuorvianti. All’interno di questa cornice giuridica, il tribunale canadese conveniva come, in forza del predetto dovere di diligenza, Air Canada fosse responsabile delle informazioni fornite all’utente tramite il suo sito web, a prescindere dalle modalità utilizzate. Il chatbot costituiva una componente del sito web di Air Canada priva di un’esistenza propria e incapace di rispondere giuridicamente delle proprie azioni: da ciò derivava quindi la responsabilità, in capo alla compagnia aerea, per i danni cagionati da informazioni inesatte fornite dal suo chatbot.
Air Canada veniva quindi condannata a versare il rimborso richiesto dal ricorrente, a titolo di risarcimento del danno, proprio per “alleging negligent misrepresentation”.
Se ora facciamo due conti sul numero di chatbot che incontriamo nel nostro quotidiano, ogni volta che utilizziamo il sito della nostra banca o quello dell’azienda elettrica o telefonica, potremo facilmente immaginare il numero e l’ammontare dei possibili risarcimenti che potrebbero essere richiesti per situazioni simili a quella descritta.
Ed è solo uno dei motivi per i quali assicurare l’AI potrebbe rappresentare una sfida non di poco conto per il comparto assicurativo.
© RIPRODUZIONE RISERVATA