Uno strano cerchietto multicolore è comparso pochi mesi fa in basso a destra nell’app di WhatsApp. Si chiama Meta Ai ed è l’assistente di intelligenza artificiale di Zuckerberg. Ce lo siamo trovato integrato dentro tutte le applicazioni di Meta presenti nel nostro smartphone e abbiamo presto capito che non potevamo disinstallarlo. Ma l’inestirpabile compagno di chat è solo l’ultima spia dell’aggressività di Menlo Park verso la privacy degli utenti.
Le controversie legali
l gigante da anni è il sorvegliato speciale delle autorità europee. Le politiche di Meta si sono spesso scontrate con il Regolamento europeo sulla protezione dei dati (Gdpr). Nel maggio 2023 la Commissione irlandese per la protezione dei dati (Edpb) infligge a Meta una sanzione di 1,2 miliardi di euro per avere trasferito informazioni personali degli utenti europei verso gli Stati Uniti senza garanzie adeguate.
«L’autorità ha rilevato che la violazione di Meta è molto grave poiché riguarda trasferimenti sistematici, ripetitivi e continui – ha dichiarato Andrea Jelinek, presidente dell’Edpb – . Facebook ha milioni di utenti in Europa, quindi il volume di dati personali trasferiti è enorme».
A settembre 2024 un nuova multa, questa volta di 91 milioni di euro, per non aver protetto adeguatamente e in modo sicuro le password degli utenti. Pochi mesi dopo, nel dicembre dello stesso anno, la stessa autorità commina un’altra sanzione da 251 milioni di euro per una violazione dei dati risalente al 2018.
L’intelligenza artificiale
Qualche mese fa entra in gioco un fattore che alza la posta: l’intelligenza artificiale. Il colosso tenta il recupero nella corsa allo sviluppo di una propria IA. Lo fa nel modo più rapido ed economico: facendo incetta dei dati pubblici dei suoi utenti. Li prende da commenti, immagini e interazioni postati sulle sue piattaforme da profili di maggiorenni.
Una quantità infinita di dati, foto e documenti vanno ad allenare il modello linguistico dell’azienda, Llama. Proprio grazie a lui, ad aprile è comparso sui nostri schermi il cerchietto dell’assistente digitale di Meta. Il sistema è integrato direttamente dentro le applicazioni di WhatsApp, Instagram e Facebook e non è separabile. L’assistente artificiale non può leggere i messaggi privati, che sono coperti da un sistema crittografato. La sua utilità sta nell’essere un supporto per scrivere più chiaramente il testo di un messaggio, per usare il tono giusto con la propria fidanzata o col proprio capo, per tradurre testi che arrivano da qualcuno che non parla la nostra lingua. Sembra quindi del tutto evidente che chi interagisce in chat col cerchietto multicolore finisce inevitabilmente per fornire moltissimi dettagli sul suo privato al gigante tech.
L’azienda dichiara esplicitamente di raccogliere e condividere le informazioni estrapolate dalle interazioni con l’assistente IA con partner esterni, senza rendere noto quali siano le aziende coinvolte.
«Nell’aprile del 2025 Meta è finita sotto la lente dell’autorità irlandese per la protezione dei dati», spiega a Moneta Anna Cataleta, avvocata e senior partner di P4I.
«La società aveva risposto introducendo alcune modifiche, tra cui l’aggiornamento dei moduli per l’esercizio dei diritti degli utenti e della documentazione di conformità al Gdpr. Si era appellata alla base giuridica del “legittimo interesse” per giustificare la raccolta dei dati». Uno dei punti più delicati riguarda i minori. L’opposizione al trattamento dei dati avrebbe dovuto essere esercitata da ogni singolo utente entro fine maggio 2025 – è ancora possibile farla ma non ha più valore retroattivo -, ma la procedura è complicata.
Anche dichiarando attivamente la propria opposizione, c’è comunque il rischio che i dati vengano trattati se presenti in contenuti pubblici condivisi da altri utenti. «Meta ha previsto che i dati pubblicati da minorenni siano esclusi dal trattamento, ma non può evitare che tali contenuti circolino comunque attraverso terzi», spiega.
Molte le criticità: la legislazione europea persegue il principio di minimizzazione del dato, che consente di raccogliere solo quanto strettamente necessario a uno scopo determinato. C’è poi un eccesso di responsabilità sull’utente: è il singolo deve stare attento a condividere sulle piattaforme solo ciò che è disposto a far utilizzare dalla società.
«Un sondaggio condotto dall’attivista Max Schrems dell’associazione Noyb- prosegue Cataleta – ha evidenziato che il 75% degli utenti non era a conoscenza dei piani di Meta e solo il 7% si dichiarava favorevole a condividere i propri dati per l’addestramento dell’IA. Secondo Schrems, la società avrebbe preferito invocare il “legittimo interesse” anziché raccogliere un consenso esplicito, temendo di ricevere troppi rifiuti».
La situazione diventa critica quando nelle conversazioni vengono inseriti dati sensibili, come l’origine etnica, le opinioni politiche o l’orientamento sessuale, che dovrebbero essere sottoposte a una esplicita dichiarazione ci consenso.
Negli Usa qualche mese fa è scoppiato un polverone quando si è scoperto che le interazioni con Meta AI potevano essere rese pubbliche attraverso l’applicazione Discover, una sorta di social network dove gli scambi tra utenti e intelligenza artificiale diventano visibili a tutti. Commenti, dialoghi e immagini generate appaiono in una sezione pubblica, associati a nomi utente e foto profilo. In questo modo è possibile trovare conversazioni che contengono dati sanitari, richieste farmacologiche, dettagli finanziari e numeri di telefono.
© Riproduzione riservata