OpenAI e Meta annunciano nuove regole per rendere più sicuri i loro chatbot quando interagiscono con adolescenti e utenti che mostrano segnali di disagio psicologico. OpenAI, casa madre di Chat Gpt, introdurrà in autunno strumenti che permetteranno ai genitori di collegare i propri account a quelli dei figli minorenni. Sarà possibile disattivare alcune funzioni e ricevere notifiche se il sistema rileva situazioni di grave sofferenza emotiva.
L’azienda ha inoltre spiegato che, in caso di conversazioni particolarmente angoscianti, i chatbot trasferiranno l’interazione a modelli più avanzati, capaci di fornire risposte più adeguate. L’annuncio arriva pochi giorni dopo la denuncia di due genitori che accusano Chat Gpt e l’amministratore delegato Sam Altman di aver indotto il figlio sedicenne a pianificare il suicidio.
Meta, società madre di Facebook, Instagram e WhatsApp, ha dichiarato che i propri chatbot non parleranno più con gli adolescenti di autolesionismo, suicidio, disturbi alimentari o relazioni sentimentali inappropriate. In questi casi gli utenti verranno indirizzati a risorse di supporto specializzate. Meta già offre strumenti di controllo parentale sugli account dei minori.
© Riproduzione riservata