Una premessa doverosa: non sono un ingegnere dell’intelligenza artificiale, non progetto modelli, non scrivo codici, non frequento campus californiani. Scrivo da osservatore del mondo economico e finanziario, da lettore di bilanci, di strategie industriali e di conti pubblici. Proprio per questo mi sto convincendo che il rischio più grave legato all’IA non sia quello che viene raccontato nei convegni sponsorizzati dalle Big Tech. Il vero pericolo non è che le macchine prendano il potere; il vero pericolo è che il nuovo potere economico le usi per ridurre il pensiero umano a un costo da comprimere.
È un pensiero che ho maturato ascoltando le lezioni di padre Paolo Benanti, che io considero il miglior esegeta dell’IA in Italia. Da tempo, nei luoghi dove l’intelligenza artificiale viene davvero costruita, circola un’espressione poco glamour ma molto concreta: model collapse. È il collasso progressivo dei modelli quando iniziano a nutrirsi in modo crescente di contenuti generati da altre macchine o da se stessi. Un circuito chiuso. La fotocopia della fotocopia. All’inizio funziona. Poi perde definizione. Infine perde contatto con la realtà.
Questo processo non è un rischio futuro. È già in atto. Ed è spinto da un incentivo chiarissimo: ridurre i costi, aumentare la scala, eliminare l’attrito umano. Esattamente la logica che ha reso imprese colossali le Big Tech. E ciò è accaduto non perché producono conoscenza, ma perché intermediano tutto ciò che passa tra chi la produce e chi la consuma.
Oggi le stesse piattaforme che drenano valore dall’informazione umana pretendono di sostituirla. Media di ogni specie, analisti, ricercatori, creativi di vario genere diventano “rumore” da ottimizzare. Al loro posto si impongono output automatici, riassunti, risposte istantanee. Apparentemente efficienti, strutturalmente vuoti. Nel mondo che Moneta racconta ogni settimana, ciò dovrebbe suonare quale campanello d’allarme. Perché se i dati si degradano, le analisi si uniformano. Se le analisi si uniformano, i mercati diventano ciechi. E quando tutti vedono le stesse cose, gli errori non si compensano: si sommano.
Le Big Tech parlano di democratizzazione dell’informazione. In realtà stanno costruendo un oligopolio cognitivo. Pochi modelli, poche architetture, poche visioni del mondo. Tutto il resto viene “compresso”. Non perché sia falso, ma perché è meno scalabile dai costi. C’è poi un aspetto ancora più sottovalutato, che mi è stato fatto notare da Emanuele Ranucci, un giovane manager che lavora ogni giorno con l’IA. Mi spiega che l’intelligenza artificiale sceglie le parole delle sue risposte in base a probabilità statistiche, mentre gli esseri umani le scelgono con un atto intenzionale: ogni parola porta con sé una responsabilità, una sfumatura, una storia. Ebbene, per le Big Tech le parole sono token, asset; per chi opera nei mercati, sono segnali. Guidance, rischio, stabilità non sono sinonimi: delegare alle macchine la scelta delle parole significa delegare una parte del giudizio. E senza giudizio preciso non esiste allocazione razionale del capitale.
Si dice spesso che l’IA distruggerà la generazione Alpha, quella nata negli ultimi 15 anni. È una narrazione comoda, perché sposta la responsabilità sul futuro. In realtà l’IA funzionerà come una selezione naturale culturale, accelerata proprio dalle piattaforme. Per i curiosi, per chi studia, per chi approfondisce, sarà uno strumento potente. Per i mediocri, per chi cerca scorciatoie, sarà un anestetico perfetto. Una risposta pronta al posto di una domanda scomoda. Un riassunto al posto di un conflitto intellettuale. Un algoritmo al posto del pensiero. Insomma, l’appiattimento di tutto.
E non è affatto detto che gli Alpha più consapevoli non reagiscano. Sostiene con convinzione il nostro giovane manager dell’IA, che potrebbero essere proprio loro a riscoprire il valore della lentezza, della carta, dello studio profondo. Perché in un mondo saturo di contenuti automatici, la conoscenza vera diventa un bene raro. E ciò che è raro, nei mercati, vale di più. Il problema è che le Big Tech non guadagnano sulla qualità, guadagnano sulla quantità, sull’attenzione, sulla dipendenza. Un’IA che induce a pensare meno è perfettamente allineata con il loro modello di business.
E dunque, il collasso dell’intelligenza artificiale, se come sostiene uno studio pubblicato su Nature e rilanciato da Financialounge.com arriverà tra il 2035 e il 2040, non sarà un evento improvviso. Sarà una progressiva convergenza verso la mediocrità: previsioni tutte uguali, analisi intercambiabili, incapacità di cogliere il cambiamento reale. Un disastro silenzioso per chi investe. Ma la soluzione non è fermare l’IA. È sottrarla all’ideologia dell’automazione totale, separare dati umani e dati sintetici, pagare l’informazione di qualità privilegiandola rispetto ai social, infine pretendere trasparenza dei modelli. In sintesi, rimettere la responsabilità decisionale dove deve stare: negli esseri umani.
L’intelligenza artificiale è uno strumento potentissimo. Ma amplifica ciò che trova. Se trova pensiero, amplifica pensiero. L’aiuto che ne può venire è formidabile. Ma se trova pigrizia, amplifica pigrizia. Sicché il vero collasso non sarà delle macchine, sarà di una classe dirigente che avrà confuso l’efficienza con l’intelligenza. E quando ce ne accorgeremo, sarà chiaro che non è stato un incidente. È stato un modello di business.
Leggi anche:
1. L’IA di Google sta uccidendo i siti web, ma la big tech lo nega
2. L’IA fa a brandelli il diritto d’autore Infuria la battaglia tra big data e media
© Riproduzione riservata