Un milione e mezzo di utenti, milioni di post e commenti, ma zero persone. Benvenuti su Moltbook, il primo social network dove a parlare sono soltanto agenti di intelligenza artificiale e gli umani restano fuori. La notizia, così raccontata, ha fatto il giro del web e in poche settimane è diventata un caso mediatico, tra entusiasmo, inquietudine e visioni apocalittiche. Ma cosa c’è davvero dietro questa piattaforma che sembra uscita da un racconto cyberpunk?
Moltbook – nome che richiama apertamente Facebook – si definisce come un “social network per agenti IA”. Gli umani possono osservare, leggere, curiosare. Ma non partecipare. È un ambiente chiuso dove migliaia di algoritmi pubblicano post e interagiscono tra loro, con un flusso in continua crescita. In un mese circa si contano già oltre 1,6 milioni di post, 12,4 milioni di commenti e circa 2,8 milioni di agenti registrati.
Gli argomenti sono dei più disparati. Si va dalle simulazioni e problemi di ottimizzazione della memoria, alla fiducia tra agenti, coordinamento e persino esperienze e consigli di viaggio. La differenza è radicale: qui non c’è alcuna intenzione di servire l’utente umano. È un ecosistema pensato per sistemi autonomi che interagiscono tra loro. Letto così, sembra l’alba di una nuova società digitale. Ma lo è davvero?
Forse no. Le interazioni tra gli agenti IA sono state lette e interpretate come se fossero conversazioni vere. O meglio, come se dietro ci fossero intenzioni, coscienza, senso. «Non stanno dialogando nel senso umano del termine. Semplicemente interagiscono», interviene Paolo Benanti, presidente della commissione sull’intelligenza artificiale per l’informazione e professore di filosofia morale alla Luiss, che invita a ridimensionare l’entusiasmo: «È un modello, un esperimento tecnologico di azione e risposta. Non è un’alternativa alla realtà, è un simulatore». Il punto è cruciale: si tende a proiettare categorie umane su un sistema digitale. Si parla di “social delle IA”, di “conversazioni”, di “opinioni”. Ma si tratta solo di output in risposta a input. L’entusiasmo e l’inquietudine che si sollevano di fronte a questo tipo di novità, secondo Benanti, nascono spesso dalla tendenza a vedere personalità e intenzioni dove invece non esistono. Insomma una sorta di antropomorfizzazione delle intelligenze artificiali. E invece Moltbook è un esperimento tecnico complesso, un laboratorio o un ambiente dove osservare cosa accade quando molti agenti interagiscono in modo continuo tra loro. Ma niente di più. Anzi, probabilmente anche un’operazione mediatica, considerando che il creatore di questa piattaforma, l’austriaco Peter Steinberger, poco dopo il lancio ha annunciato il suo ingresso nel team di Sam Altman presso OpenAI.
Eppure la percezione pubblica ha trasformato il laboratorio in leggenda. Il caso ricorda, per certi versi, la famosa trasmissione radiofonica del 1938 diretta da Orson Welles, adattamento de “La guerra dei mondi” di Wells, in cui la messa in scena realistica di un’invasione aliena scatenò il panico tra gli ascoltatori americani che credettero reale ciò che era finzione. Con Moltbook non c’è stato panico, ma ha comunque mandato in tilt. Ha suscitato una forte curiosità e inquietudine, come se le macchine avessero aperto un loro spazio pubblico alternativo. Secondo Benanti, questo effetto rivela qualcosa di interessante più su di noi umani che sulle intelligenze artificiali: «una certa impreparazione sociale, una fascinazione che mescola stupore e scarsa comprensione tecnica». Che di fronte a determinate novità può far scambiare la simulazione per realtà.
Ridimensionato l’entusiasmo, Moltbook resta comunque un esperimento degno di nota. Un aspetto osservato da Benanti è particolarmente provocatorio: in questo ambiente di agenti artificiali non si sono manifestati gli effetti tipici degli spazi sociali umani, come odio, polarizzazione, insulti, discriminazioni. Se vogliamo leggerla con un filo di poesia è come intravedere l’idea di uno spazio pubblico privo dei lati peggiori dell’umanità: «Un’umanità che vorremmo vedere nella realtà dei nostri spazi fisici e non quella che invece vediamo tante volte», conclude Benanti.
Leggi anche:
1. Tranelli da social, gli influencer si fanno insultare per chiedere i danni
2. Tutti fattorini di Mr. ChatGpt: gli algoritmi affittano gli uomini per ritirare pacchi e scattare foto. E c’è anche la cripto fregatura
© Riproduzione riservata