Se sei ancora bloccato in una race condition per ottimizzare il costo delle inference sul tuo LLM, o peggio, stai cercando di far girare un modello 7B su una TPU che hai trovato in saldo, ho brutte notizie.
Mentre tu facevi fine-tuning sul tuo dataset aziendale (spendendo $200/ora), il mondo dell’AI ha fatto un balzo di tre major release. Niente più chiacchiere da bar sull’AGI; ora si parla di efficienza, agenzia e controllo. E questo sta per rendere il tuo attuale stack tecnologico obsoleto.
Settembre e Ottobre 2025 sono stati i mesi in cui abbiamo smesso di chiederci “se” i modelli potessero scrivere il nostro codice e abbiamo iniziato a chiederci “quanto” costa farli girare con senso.
1. Agents: La Morte del Chatbot (e Forse del Frontend)
Il vero game changer non è l’LLM, ma l’AI Agent. Parliamo di roba che non si limita a generare testo, ma che prende decisioni, gestisce dipendenze, chiama tool esterni e, letteralmente, esegue task complessi sul tuo PC.
Il Fanta-Team di Google: Hanno lanciato la beta chiusa di Project Mariner, l’agente che vive nel browser. Addio estensioni. Mariner non naviga, usa il web. Può prenotare un volo combinando 3 siti diversi o fare il refactoring di una repo GitHub con un prompt. Ti ricordi quando dicevano che l’AI non poteva agire? Beh, ora può.
• OpenAI e il System 01: Il loro nuovo System non è un modello, è un orchestratore. È stato progettato per risolvere problemi di logica a 4-5 passaggi, roba che fino a 6 mesi fa richiedeva un team di data scientist. Prepara il curriculum; il “semplice” LLM Prompt Engineer potrebbe essere obsoleto.
2. Chip Wars: Il Silicio brucia (e la bolletta aumenta)
NVIDIA è ancora il re del castello, questo è chiaro. Ma c’è un dettaglio che fa impazzire gli sysadmin: il chip Vera Rubin è una bestia, ma ha spinto i requisiti di raffreddamento a un livello assurdo. Non parliamo più di aria condizionata, ma di raffreddamento a liquido con impianti che costano più dell’hardware stesso.
• I Challenger: Qualcomm e AMD hanno risposto con chip focalizzati su una maggiore efficienza energetica per il cloud e l’edge. La battaglia non è più solo su chi ha il TFLOPS più alto, ma su chi ha il TFLOPS/Watt più basso. Perché, a fine mese, il conto lo paghi tu.
• Il Mercato del Silicio: La vera notizia è che il backlog di ordini sta di nuovo gonfiandosi. Se non hai già fatto scorta di H100 l’anno scorso, preparati a pagare il premium e ad aspettare. Non c’è AGI senza GPU, e non ci sono GPU senza cash flow illimitato.
3. La GenAI è diventata 3D (e 4K)
Dimentica le immagini stilizzate. I modelli Text-to-Video non sono più solo un gimmick di Hollywood. La vera svolta è Genie 3 (di Google/DeepMind) che non crea solo video, ma mondi virtuali 3D completamente navigabili da un semplice prompt.
• Implicazione per Dev: Pensa ai level designer che non dovranno più usare Blender per ore. Bastano due righe di testo. Il confine tra gaming, simulazione e training per l’AI si è ufficialmente disintegrato. Siamo a un passo dal poter generare un intero ambiente di test (sandbox) realistico con una singola API call.
TL;DR?
L’AI ora agisce (Agents), non solo parla. La GPU è il nuovo petrolio, ma la sfida è raffreddarla. E la GenAI è passata al 3D navigabile, rendendo il mondo di Ready Player One una questione di un prompt ben scritto.
Se anche tu hai già scaricato la libreria Mariner-Agent-SDK su PyPI, hai una ventola extra puntata sul tuo PC e pensi che il 2026 sarà l’anno in cui potrai finalmente farti scrivere tutti i tuoi unit test dall’AI… direi che sei nel posto giusto.
