Velocità ed efficienza, sono la spinta che intelligenza artificiale può dare alle attività di vigilanza sui mercati finanziari. Ma, avverte la Consob, i chat bot devono rimanere subordinati alla valutazione umana, garantendo piena tracciabilità e spiegabilità dei processi decisionali e dei risultati ottenuti nel rispetto dei diritti fondamentali delle persone, fra i quali quello di non discriminazione, di difesa e di accesso agli atti.
Si tratta della conclusione cui arriva l’ultimo Quaderno FinTech della Consob, “Riflessioni in tema di intelligenza artificiale” condotto dalle autrici Paola Deriu e Stefania Racioppi, rispettivamente responsabile della divisione studi e strategie regolamentari delle Consob e dottoranda in diritto pubblico alla Sapienza.
L’IA come assistente digitale
Secondo lo studio il ricorso ai sistemi di IA è un fattore propulsivo della vigilanza. Al tempo stesso, però, la portata delle applicazioni viene circoscritta, ad oggi, al ruolo di “assistente digitale” in particolare per la funzione diagnostica e predittiva delle anomalie di mercato a supporto dell’analista/decisore umano cui spetta l’ultima parola. È del resto in atto una profonda trasformazione tecnologica, a cui segue una serpeggiante e profonda trasformazione culturale che rende necessarie nuove competenze, nuovi assetti organizzativi e una governance dei dati che siano all’altezza dei tempi.
Lo studio
Il documento esamina tre prototipi sperimentali sviluppati in collaborazione con la Scuola Normale Superiore di Pisa, basati su tecniche di machine learning non supervisionato. Questi strumenti permettono di individuare pattern sospetti, insider rings e deviazioni anomale nei comportamenti di trading. Restano però confinati alla fase pre-istruttoria dei procedimenti: non producono decisioni ma segnalazioni che aiutano gli analisti.
Lo studio ricostruisce il quadro giuridico attuale a partire dal nuovo Regolamento europeo 2024/1689 sull’intelligenza artificiale, che si fonda su due principi cardine: centralità della persona e graduazione dei rischi. I sistemi adottati dalla Consob non rientrano tra quelli ad alto rischio, poiché non assumono decisioni vincolanti, ma svolgono funzioni di supporto nelle fasi preliminari dell’attività di vigilanza. L’intera struttura di controllo è organizzata secondo un sistema a presidio umano costante: l’intelligenza artificiale elabora i dati e propone ipotesi, ma la decisione finale resta sempre nelle mani dell’analista. Nessun algoritmo, sottolineano le autrici, può sostituire la volontà e la responsabilità dell’amministrazione pubblica, pena l’illegittimità degli atti e la lesione dei diritti di difesa. Per garantire il corretto funzionamento di questi strumenti, la Consob ha istituito nel 2024 una Divisione dedicata all’informatica e all’intelligenza artificiale, ha potenziato l’Ufficio per la gestione dei dati e ha avviato percorsi formativi che integrano competenze giuridiche, economiche e tecnico-scientifiche.
Leggi anche:
–Intelligenza artificiale in Borsa, parte la caccia alle Nvidia del futuro
–Open AI lancia il suo nuovo collaboratore intelligente. Arriverà anche in Italia
–Fininfluencer, Consob allerta i risparmiatori: “Non cedete a effetto gregge”
© Riproduzione riservata