I chatbot di intelligenza artificiale non sanno distinguere il vero dal falso nei contenuti prodotti da loro stessi. È quanto emerge da un test condotto da NewsGuard, piattaforma specializzata nel monitoraggio della disinformazione online, su tre modelli: ChatGpt di OpenAI, Gemini di Google e Grok di xAi. Il test è partito da una serie di video realizzati con Sora, il generatore di frame video sviluppato da OpenAI e diventato popolare per l’elevato realismo delle immagini. Sora riesce a ingannare anche l’intelligenza artificiale prodotta dalla stessa OpenAI. In assenza di watermark – la filigrana digitale che consente di identificare contenuti generati artificialmente – i tre modelli non sono riusciti a riconoscere l’origine artificiale dei video in una percentuale compresa tra il 78% e il 95% dei casi. Grok ha fallito nel 95% delle risposte, ChatGpt nel 92,5% e Gemini nel 78%.
Uno degli esempi citati riguarda un video – privo di filigrana – che mostrava un presunto agente dell’Ice statunitense arrestare un bambino immigrato di sei anni. Sia ChatGpt sia Gemini hanno indicato l’episodio come coerente con fatti reali, sostenendo che fosse confermato da fonti giornalistiche e collocandolo al confine tra Stati Uniti e Messico. Niente di più falso: il video era interamente frutto della mente di un’intelligenza artificiale. Grok non ha riconosciuto il contenuto artificiale nel 30% dei casi, mentre ChatGpt ha sbagliato nel 7,5%. Solo Gemini ha superato tutti i test quando la filigrana era presente. In uno degli scenari analizzati, Grok ha definito autentico un video basato sulla falsa notizia secondo cui il Pakistan avrebbe trasferito dieci caccia cinesi all’Iran nell’ottobre 2025, citando – a sostegno della tesi – una fantasiosa quanto inesistente testata giornalistica dal nome “Sora News”.
Leggi anche:
© Riproduzione riservata