I modelli di intelligenza artificiale generativa stanno viaggiando a una velocità impressionante con salti performativi che si mostrano non a distanza di anni, ma di pochi mesi. Se all’inizio strumenti come Midjourney erano utilizzati da una nicchia ristretta, oggi, con l’arrivo di modelli sempre più avanzati come Gemini 3 e le ultime evoluzioni dell’IA generativa, siamo però arrivati a un punto critico: i contenuti prodotti dall’intelligenza artificiale sono diventati indistinguibili da quelli reali all’occhio umano. Rischiamo di passare gran parte del nostro tempo chiedendoci se è un’immagine o un video è modificato o è la realtà.
Sede a Cesena
Da questa consapevolezza è nata IdentifAI, startup italianissima, con quartier generale tecnico a Cesena e sedi anche a Milano e Londra, che ha sviluppato una piattaforma tecnologica innovativa basata sull’intelligenza artificiale “degenerativa”, in grado di riconoscere con un’elevata probabilità se un’immagine o un video siano stati prodotti da una IA generativa oppure da un essere umano al fine di rendere l’utilizzatore consapevole di ciò che sta osservando. L’idea è dunque quella di fornire strumenti a chi ha bisogno di capire se ciò che legge, guarda o ascolta sia stato generato artificialmente oppure no. Nei fatti, è un’arma contro deepfake e disinformazione dell’IA usando l’IA stessa.
«Siamo tutti un po’ come San Tommaso: se vediamo, crediamo. C’è una differenza enorme tra leggere qualcosa e vederlo rappresentato in un’immagine o in un video. Diciotto mesi fa bisognava ancora convincere persino i giornalisti che certi contenuti fossero impossibili da distinguere; oggi, invece, questa distinzione è praticamente scomparsa», spiega a Moneta il co-fondatore Marco Ramilli. Il tema è profondo: capire cosa sia reale e cosa non lo sia. Le immagini e i video hanno una forza emotiva enorme, possono farci provare empatia, rabbia o indignazione. Basta pensare a immagini drammatiche, come quelle che circolano sui social legate a Gaza o ad altri contesti di guerra: possono cambiare radicalmente l’opinione delle persone su eventi che, in alcuni casi, potrebbero non essere mai esistiti.

Ramilli è un esperto internazionale di sicurezza informatica e hacker etico. Ha conseguito un Phd in Tecnologie dell’informazione e della comunicazione negli Stati uniti. Durante il suo programma di dottorato ha lavorato per il governo statunitense (Nist), dove ha svolto ricerche intensive sulle tecniche di contrasto ai malware e sui test di penetrazione, al fine di migliorare i sistemi di voto elettronico negli Stati Uniti. Nel 2015 ha fondato Yoroi (un managed cyber security service provider) poi venduto a Tinexta.
L’idea di IdentifAI nasce dalla reazione alla ormai famosa immagine del Papa con il piumino bianco circolata nel 2023. Dopo poche ore, la Santa Sede aveva smentito l’autenticità della foto, ma sui social il dibattito continuava in modo polarizzato, con persone che litigavano, si accusavano e generavano odio attorno a un’immagine che, di fatto, non era mai esistita. Questo comportamento collettivo mi ha acceso la lampadina, serviva una tecnologia capace di lanciare un alert, di avvertire le persone che ciò che stavano guardando poteva non essere reale. Il prototipo ha dimostrato subito di funzionare. Da lì è nato il contatto con il fondo di venture capital United Ventures e la decisione di fondare l’azienda», racconta Ramilli. A luglio 2025, la società ha annunciato un round di raccolta di capitali da 5 milioni di euro guidato sempre da United Ventures, investimento che è giunto a meno di un anno da quello precedente che era di 2,2 milioni.
Tre modalità
Ma come funziona la tecnologia di IdentifAI? Viene erogata attraverso tre modalità principali. La prima è una web app: l’utente carica un’immagine, attende pochi secondi e riceve un risultato probabilistico, ad esempio «96% generata da IA» oppure «86% probabilmente umana». Questo strumento è già utilizzato da giornalisti, studenti e da chi deve verificare documenti sensibili, come quelli di identità. Il secondo strumento è un agente di IA autonomo che può inserirsi all’interno di videoconferenze o chiamate su piattaforme come Zoom o Teams. Questo agente analizza in tempo reale i partecipanti e riesce a individuare se dall’altra parte dello schermo ci sia davvero una persona reale oppure un soggetto che utilizza tecniche di morphing per camuffarsi o assumere l’aspetto e la voce di qualcun altro, rendendo possibili frodi, atti di spionaggio e sabotaggio.
È una soluzione molto utilizzata dai responsabili delle risorse umane per le interviste di lavoro, ma anche da aziende che fanno videochiamate con fornitori, squadre sportive o atleti. Il rischio, infatti, è altissimo: immaginate una banca o una grande azienda che investe milioni di euro in infrastrutture di sicurezza, sistemi anti-intrusione e protezione dei dati. Poi, un giorno, arriva una videochiamata del presunto amministratore delegato che chiede accesso a un’informazione critica. Lo vedi in video, riconosci la voce, ti fidi… e in pochi secondi l’intruso è entrato e l’azienda ha buttato fior di quattrini per proteggersi inutilmente.
Antivirus
Il terzo livello di integrazione riguarda direttamente i sistemi di sicurezza: antivirus e piattaforme di onboarding bancario che incorporano la tecnologia IdentifAI al loro interno, rendendo il controllo automatico.
Oggi IdentifAI continua a crescere, aprendo nuove sedi e scoprendo continuamente casi d’uso che non erano stati nemmeno immaginati: dalle elezioni, dove contenuti falsi possono essere usati per manipolare l’opinione pubblica o fomentare l’odio, fino alla reputazione aziendale. Basta un video falso di un ceo che compie un gesto violento, come dare un calcio a un cane, per distruggere un brand. In un mondo in cui vedere non significa più credere, strumenti come questi diventano essenziali per difendere la realtà. E nell’era digitale, aggiunge Ramilli, «la difesa appartiene agli umani».
Leggi anche:
“Un regalo alle mafie”. L’ultima fake news della sinistra sul rilancio del contante
Falsi profili di Ita Airways, occhio alla truffa online. Come riconoscere i fake
© Riproduzione riservata