L’IA non sta rallentando, siamo noi che non stiamo capendo cosa stia succedendo.

L’IA non sta rallentando, siamo noi che non stiamo capendo cosa stia succedendo.

14 dicembre 2025

Nel dibattito pubblico sull’IA continua una gigantesca operazione di autoinganno: si scambia la frequenza dei comunicati stampa per lo stato reale della tecnologia. Se i grandi laboratori di frontiera rilasciano meno modelli di quanto Twitter si aspetti, non è perché “la magia è finita”, ma per un motivo molto più banale e molto più inquietante: manca la potenza di calcolo per reggere l’urto operativo di ciò che l’IA è già in grado di fare.

La ricerca non è il collo di bottiglia. Non lo sono le idee, né gli algoritmi. Il collo di bottiglia è l’infrastruttura. È la capacità di distribuire modelli sempre più complessi senza far saltare data center, conti economici e catene di approvvigionamento energetico. In altre parole: non stiamo aspettando la prossima svolta scientifica, stiamo aspettando i trasformatori, le GPU, le reti elettriche. Altro che “fine dell’hype”.

Sul piano tecnico, molte soglie sono già state superate, anche se farlo ammettere pubblicamente è diventato politicamente scomodo. Le capacità di ragionamento dei modelli sono ormai sufficienti per gestire compiti articolati, sequenziali, non banali. Il pre-training ha ancora spazio, sì, ma il punto non è più “se” miglioreranno: è quanto velocemente. I benchmark? Relitti. Sono saturi, miopi, incapaci di misurare ciò che conta davvero. Continuano a essere citati solo perché rassicurano chi ha bisogno di credere che tutto sia sotto controllo.

Ma il nodo vero non è tecnico. È sistemico. E qui il dibattito collassa.

I sistemi complessi non crescono in modo lineare. Accumulano capacità finché, a un certo punto, saltano di stato. Superano soglie che permettono di aggirare vincoli che prima sembravano strutturali. Nel caso dell’IA, questi vincoli non sono matematici. Sono umani. Tempi decisionali, coordinamento, sviluppo software, manutenzione, debugging, governance. Tutte attività che oggi esistono perché il collo di bottiglia siamo noi.

Quando quella soglia viene superata, non si ottiene “un po’ più di produttività”. Si ottiene una riorganizzazione radicale dei processi. Il software, così come lo conosciamo, diventa un caso storico. Non perché sparisca, ma perché smette di essere progettato, mantenuto e governato secondo logiche umane. E chi pensa che questo riguardi solo la Silicon Valley non ha capito nulla.

Non è una questione di allarmismo. È una questione di orizzonte temporale. Chi si concentra sulle singole mosse di OpenAI, Google o Anthropic sta guardando il dito mentre il sistema cambia forma.

La trasformazione non arriverà con una conferenza stampa. Non ci sarà un “giorno zero”. Ce ne accorgeremo dopo, quando interi pezzi di lavoro cognitivo saranno già stati resi obsoleti senza clamore, senza proteste, senza un dibattito politico all’altezza.

La vera domanda, quindi, non è “a che punto siamo con l’IA?”. È una domanda comoda, rassicurante, da talk show. La domanda giusta è: in che direzione sta andando il sistema? e chi sta preparando l’economia, l’industria e lo Stato a quel salto di fase?

Perché è lì che si decide chi governerà il prossimo ciclo. E chi lo subirà.