Deloitte ha ammesso di aver utilizzato l’intelligenza artificiale Chat Gpt di OpenAI per redigere un rapporto commissionato dal governo australiano, costato quasi 400 mila euro, poi rivelatosi pieno di errori. La società ha annunciato che rimborserà parzialmente l’esecutivo per la spesa sostenuta.
Il documento è stato pubblicato a luglio e prende il titolo di “Targeted Compliance Framework Assurance Review”. Il tema era redigere una valutazione di un sistema informatico destinato a individuare dichiarazioni mendaci nelle richieste di sussidi statali. Un gruppo di accademici dell’Università di Sydney ha però scoperto che il testo conteneva “allucinazioni dell’IA“, citazioni errate di esperti e riferimenti a ricerche inesistenti.
Secondo l’Australian Financial Review, una nuova versione del rapporto è stata caricata sul sito del dipartimento, con oltre una dozzina di note e riferimenti cancellati, una bibliografia riscritta e numerosi errori tipografici corretti. Deloitte, che genera una parte consistente dei propri ricavi globali proprio dalla consulenza e formazione sull’intelligenza artificiale rivolta a dirigenti e imprese.
A segnalare per primo le incongruenze era stato Chris Rudge, vicedirettore del dipartimento di Diritto Sanitario dell’Università di Sydney, dopo aver notato nel testo citazioni di rapporti mai esistiti attribuiti alla professoressa Lisa Burton Crawford, docente reale della stessa facoltà. La più classica delle allucinazione dell’IA.
Deloitte fa sapere che “Gli aggiornamenti apportati non hanno alcun impatto o effetto sul contenuto sostanziale, sui risultati e sulle raccomandazioni del rapporto”. l’IA è servita solo “a rifinire la parte di analisi tecnica”.
© Riproduzione riservata