AI ACT, UNA LEVA PER IL CAMBIAMENTO

Stefania Salmi, manager di Scs Consulting, ha approfondito sfide e opportunità per l’innovazione che derivano dal testo approvato dall’Unione Europea. Una norma inedita che permetterà alle compagnie di avanzare nei prodotti, nel risk management, nell’underwriting e nella gestione sinistri

AI ACT, UNA LEVA PER IL CAMBIAMENTO
L’AI Act, l’innovativa norma da poco approvata delle istituzioni europee, è l’occasione per comprendere anche gli aspetti sottostanti, e ancora poco chiari, dell’intelligenza artificiale. Ma sono anche tanti i rischi, come noto, legati a questa nuova tecnologia, soprattutto nella sua ultimissima versione, l’intelligenza artificiale generativa. Ne ha parlato Stefania Salmi, manager di Scs Consulting, in apertura della sessione tematica Innovation Lab, che ha preceduto la tavola rotonda tra le compagnie. 
L’AI è sempre più presente nella nostra vita quotidiana ed è sempre più sofisticata, il che comporta un aumento dei rischi: “dai dati dell’Artificial intelligence index report, il numero di incidenti etici legati all’AI è aumentato del 71% rispetto al 2021”, ha detto Salmi. Per incidenti etici si fa riferimento alle violazioni della privacy, dei principi di correttezza e trasparenza, dell’equità degli algoritmi, ma anche ai sinistri delle auto a guida autonoma e ai video deep fake.   
All’aumentare degli incidenti aumenta anche l’adozione di framework di gestione responsabile dell’AI: “entro il 2026, le organizzazioni che saranno in grado di gestire l’AI – ha rivelato Salmi – aumenteranno l’accuratezza dei propri processi decisionali ed elimineranno l’80% delle informazioni errate o illegittime”. 

UN APPROCCIO RISK BASED 

L’AI Act si applica ai produttori ma anche agli sviluppatori, cioè coloro che utilizzano un sistema di intelligenza artificiale sotto la propria titolarità, modificandone l’algoritmo: un caso che coinvolge quindi i sistemi custom delle assicurazioni. L’approccio risk based della norma si basa su quattro cluster di rischio: rischio inaccettabile, cioè sistemi vietati (rilevazione delle emozioni in ambito lavorativo e scolastico); rischio alto, che comprende, per le compagnie, sistemi di risk assessment e pricing; rischio limitato (chatbot, assistenti virtuali); e rischio minimo, che riguarda sistemi lasciati alle best practice del mercato. 
“L’applicazione dell’AI è su tutta la value chain assicurativa – ha ricordato Salmi – ma in particolare si concentra sulla personalizzazione delle polizze, con un’analisi predittiva sul comportamento dei clienti, e sui sistemi di risk assessment e pricing personalizzato e finalizzato all’underwriting”. 
Alle compagnie è quindi richiesto di rispettare presidi obbligatori, tra cui la redazione dell’aggiornamento della documentazione tecnica; la garanzia di una presenza umana consapevole; la valutazione di conformità che certifichi il sistema anche riguardo gli aspetti etici; la registrazione degli applicativi su un database europeo creato ad hoc, e lo sviluppo di un monitoraggio ex-post. 

© RIPRODUZIONE RISERVATA

Articoli correlati

I più visti