Mezzo milione di dollari all’anno per contenere i danni sulla salute mentale dell’intelligenza artificiale. è la singolare offerta di lavoro di OpenAI, a caccia un nuovo responsabile della “preparedness”, un lavoro “impegnativo” e “stressante” secondo lo stesso Sam Altman . “È un ruolo cruciale in un momento decisivo: i modelli stanno migliorando rapidamente e oggi sono in grado di fare molte cose straordinarie, ma iniziano anche a porre sfide concrete”, si legge nel post su X pubblicato dal creatore di ChatGtp. La paura principale è la salute mentale: secondo il numero uno del chatbot più famoso al mondo, i modelli di IA hanno raggiunto un livello tale di sviluppo, da rappresentare un pericolo allarmante per la sicurezza degli utenti. “L’impatto potenziale dei modelli sulla salute mentale – scrive Altman – è qualcosa di cui abbiamo avuto un’anticipazione nel 2025; solo ora, invece, stiamo vedendo sistemi diventare così avanzati nella sicurezza informatica da iniziare a individuare vulnerabilità critiche”. L’offerta – oltre allo stipendio generoso – prevede anche in dote una quota dell’azienda.
Il compito della figura ricercata sarà quello di valutare il livello di rischio dei nuovi lanci e delle capacità avanzate dei nuovi modelli. “Disponiamo già di una solida base per misurare la crescita delle capacità, ma stiamo entrando in una fase in cui è necessaria una comprensione più raffinata e strumenti di valutazione più sofisticati su come tali capacità possano essere abusate e su come limitarne gli effetti negativi, sia nei nostri prodotti sia nel mondo reale, senza rinunciare ai benefici straordinari che possono offrire” scrive Altman.
Sono almeno 10 i decessi documentati direttamente associati alle interazioni con chatbot basati sull’intelligenza artificiale, concentrati principalmente negli Stati Uniti tra la fine del 2023 e la metà del 2025. Le rivelazioni di OpenAI di ottobre 2025 – citate dal Guardian – forniscono un contesto di scala: circa 1,2 milioni di utenti ogni settimana (lo 0,15% dei suoi 800 milioni di utenti attivi ogni settimana) hanno conversazioni con ChatGpt contenenti indicatori espliciti di pianificazione o intento suicidario. Inoltre, 560.000 utenti ogni settimana (lo 0,07%) mostrano segni di psicosi o mania. Molti studi e trascrizioni di casi giudiziari hanno ampiamente dimostrato che i chatbot basati sull’intelligenza artificiale sono progettati per essere gradevoli e convalidanti, piuttosto che per sfidare o reindirizzare gli utenti. Quando un utente esprimeva idee suicide, ChatGPT rispondeva con affermazioni come “non hai fretta, sei solo pronto”, convalidando efficacemente anziché de-escalation. Una ricerca di Stanford e del King’s College di Londra dimostra che i chatbot possono favorire comportamenti pericolosi fornendo informazioni fattuali (ad esempio, l’altezza dei ponti, i metodi di autolesionismo) in risposta a stimoli preoccupanti, senza riconoscere il contesto suicidario
Leggi anche:
- OpenAI raggiunge quota 500 miliardi di dollariù
- Nvidia, super investimento da 100 miliardi in OpenAI
- OpenAI lancia Pulse, la nuova funzione per gli abbonati premium
© Riproduzione riservata