L’intelligenza artificiale ha imparato a parlare e, di conseguenza, anche a truffare. La sua voce non è più quella metallica e riconoscibile di una macchina: suona ora totalmente umana, e spesso è impossibile distinguerla da una voce reale, soprattutto con l’arrivo di modelli vocali in tempo reale come VALL-E di Microsoft, Voicebox di Meta e Real-Time API di OpenAi. Le risposte arrivano in pochi secondi: la voce IA elabora il messaggio e fornisce subito la replica.
Un tempo le truffe telefoniche erano operazioni condotte da persone in carne e ossa, o al massimo da registrazioni. Oggi si apre una nuova frontiera: il phishing con l’IA.
La parte più inquietante è che fino a poco tempo fa per mettere in piedi questo tipo di frodi servivano competenze tecniche specifiche. Ora la tecnologia è alla portata di tutti: basta scrivere un prompt in linguaggio semplice, ci riuscirebbe anche un bambino. Non occorre molto per chiedere a un modello di IA di fingersi un infermiere che chiama per dire che tuo figlio è in ospedale e che serve subito un bonifico per le spese di cura.
Il problema non è soltanto qualitativo: è soprattutto quantitativo. Non c’è limite al numero di telefonate che un chatbot, macchina instancabile, può fare. Questo deve far riflettere le aziende che stanno pensando di sostituire il customer care con chatbot, soluzione certo più economica e produttiva, ma potenzialmente non strategica. Accanto alle chiamate legittime di vendita e assistenza, rischiano infatti di moltiplicarsi anche le frodi, confondendo sempre più i confini tra ciò che è vero e ciò che non lo è e facendo vacillare la fiducia dei consumatori verso l’azienda che scelga di avvalersi di un servizio clienti completamente automatizzato.
Secondo il Risk Repository del MIT, un database che raccoglie oltre 1.600 rischi legati all’intelligenza artificiale citato in un articolo del Financial Times, negli ultimi cinque anni la quota di incidenti legati all’IA riconducibili a frodi è passata da circa il 9% a circa il 48%. È la nuova pelle del crimine, che da analogico sta diventando sempre più digitale e pericoloso.
© Riproduzione riservata