Notizie AI 28 febbraio 2026

Riepilogo delle notizie sull'intelligenza artificiale: 28 febbraio 2026

🛡️ OpenAI definisce le linee guida per il suo accordo di difesa classificato

OpenAI ha pubblicato una spiegazione dettagliata del suo accordo per l'implementazione di sistemi di intelligenza artificiale avanzati in ambienti classificati per l'apparato di difesa statunitense. Il messaggio principale è: "Sì, ma con delle regole", e OpenAI sta lavorando duramente per rendere tali regole non negoziabili.

Stabiliscono tre "linee rosse": niente sorveglianza interna di massa, niente mira autonoma con armi e niente processi decisionali automatizzati critici. È come se OpenAI dicesse: collaboreremo con voi, ma non vi consegneremo un robot giudice-giuria-missile pronto all'uso... o almeno così sembra.

🧠 Nvidia starebbe preparando una nuova piattaforma di chip di inferenza

Si dice che Nvidia stia sviluppando un nuovo processore/piattaforma volto ad accelerare l'"inferenza" dell'intelligenza artificiale, ovvero la fase in cui i modelli rispondono, non quella in cui apprendono. Questo è il carico di lavoro di cui tutti sono improvvisamente ossessionati, perché agli utenti non piace aspettare, in modo prevedibile.

Il report lo inquadra come una risposta al passaggio del mercato da "formare di più" a "servire più velocemente e a minor costo", con Nvidia che cerca di mantenere la sua posizione mentre sempre più concorrenti sviluppano chip personalizzati. Il boom dell'intelligenza artificiale sta iniziando a somigliare alla cucina di un ristorante: l'addestramento è la preparazione, l'inferenza è la corsa alla cena e tutti urlano.

💰 OpenAI chiude un gigantesco round di finanziamento da 110 miliardi di dollari

OpenAI ha annunciato un massiccio round di finanziamento per un totale di 110 miliardi di dollari, con Amazon, Nvidia e SoftBank come principali finanziatori. La cifra è così elevata che non sembra più denaro, ma... meteo.

Un dettaglio degno di nota: AWS si posiziona come fornitore cloud di terze parti esclusivo per OpenAI Frontier (la sua piattaforma di gestione degli agenti aziendali), mentre il rapporto esistente con Microsoft rimane in vigore per le altre parti dello stack di OpenAI. Quindi sì, è "esclusivo"... ma anche non esclusivo, a seconda della porzione che si sta osservando.

🏗️ La storia più silenziosa del boom dell'intelligenza artificiale: accordi infrastrutturali da miliardi di dollari

Una panoramica degli enormi (e un po' assurdi) impegni in termini di data center e infrastrutture alla base dell'attuale corsa agli armamenti dell'intelligenza artificiale. La conclusione è che le partnership cloud, la capacità energetica e l'approvvigionamento di risorse di elaborazione sono ora la vera trama: le modelle sono le star, ma i macchinisti ricevono lo stipendio.

Ciò che colpisce è quanto siano diventati normali i rapporti tra "partner di elaborazione primaria": non è più tanto "chi ha il modello migliore" quanto "chi ha la pipeline più completa di GPU, potenza e raffreddamento". In sostanza, è come dare "dei baroni del petrolio", solo che il petrolio è costituito da elettroni e i baroni sono hyperscaler.

🧷 Perplexity rende open source nuovi modelli di incorporamento per la ricerca/RAG

Perplexity ha rilasciato due modelli di embedding open source mirati al recupero di alta qualità: il materiale vettoriale "dietro le quinte" che rende la ricerca e il RAG meno ovvi. Non è la novità più eclatante in ambito di intelligenza artificiale, ma è il tipo di novità che cambia silenziosamente ciò che gli sviluppatori possono offrire.

Il punto è che si tratta di prestazioni elevate con un costo di memoria molto più basso, il che è importante se si esegue il recupero su larga scala e la bolletta dell'infrastruttura è già esorbitante. Gli embedded sono come l'impianto idraulico: nessuno se ne vanta alle feste, eppure l'intera casa si allaga senza.

🧑💼 Microsoft evidenzia le nuove funzionalità di Copilot e gli aggiornamenti degli agenti

Microsoft ha pubblicato l'ultimo aggiornamento di Copilot, concentrandosi sugli "agenti" che aiutano a gestire il lavoro, tra cui un concetto di Project Manager Agent incentrato sulla pianificazione, l'organizzazione e il monitoraggio delle attività. È il lento passaggio da "l'intelligenza artificiale scrive testo" a "l'intelligenza artificiale dà una spintarella ai flussi di lavoro", il che è... utile e vagamente inquietante.

Le note di lancio sembrano un team di prodotto che insegna attentamente alle aziende a fidarsi dell'automazione, un dito alla volta. Non un pilota automatico completo, ma piuttosto un cruise control con una dashboard molto intuitiva.

Domande frequenti

Quali limiti ha fissato OpenAI per l'utilizzo dell'intelligenza artificiale in ambienti di difesa classificati?

OpenAI definisce la sua posizione come "sì, ma con delle regole" quando si tratta di implementare sistemi avanzati in contesti classificati. Traccia tre linee rosse ben definite: nessuna sorveglianza interna di massa, nessun puntamento autonomo delle armi e nessun processo decisionale automatizzato critico. L'enfasi implica una partecipazione condizionata piuttosto che un assegno in bianco. In pratica, si legge come un tentativo di bloccare scenari plug-and-play di "giudice/giuria/missile robotico".

Perché Nvidia si concentra su nuove piattaforme di chip di inferenza invece che sull'hardware di training?

Il report indica una svolta del mercato da "formare di più" a "servire più velocemente e a costi inferiori". L'inferenza è il punto in cui le persone notano la latenza e dove i costi si accumulano su larga scala, quindi la pressione sull'ottimizzazione si concentra prima di tutto lì. Nvidia sembra voler posizionare un nuovo processore/piattaforma per mantenere la leadership in termini di prestazioni, mentre sempre più concorrenti puntano al silicio personalizzato. Il boom dell'intelligenza artificiale sta iniziando a premiare l'efficienza della corsa alla cena, non solo la preparazione.

Cosa significa il round di finanziamento da 110 miliardi di dollari di OpenAI per le partnership cloud come AWS e Microsoft?

L'aggiornamento descrive un massiccio round da 110 miliardi di dollari, con Amazon, Nvidia e SoftBank come principali finanziatori. Un dettaglio chiave è che AWS viene inquadrata come fornitore cloud di terze parti esclusivo per OpenAI Frontier (la sua piattaforma di gestione degli agenti aziendali). Nel frattempo, l'attuale rapporto con Microsoft rimane in vigore per altre parti dello stack di OpenAI. Quindi il significato di "esclusivo" dipende dalla tipologia di prodotto a cui ci si riferisce.

Perché gli accordi miliardari per data center e infrastrutture stanno diventando la vera storia del boom dell'intelligenza artificiale?

L'articolo sostiene che la capacità energetica, il raffreddamento, le pipeline GPU e l'approvvigionamento di risorse di elaborazione siano diventati i vincoli decisivi. I modelli conquistano i titoli dei giornali, ma l'infrastruttura determina chi può implementarli e scalarli con coerenza. I rapporti con i "partner di elaborazione primaria" sono sempre più standard, man mano che le aziende si assicurano fornitura e capacità. Nel boom dell'intelligenza artificiale, sono spesso i macchinisti - elettroni e logistica - a decidere lo spettacolo.

Cosa cambiano i modelli di incorporamento open source di Perplexity per i flussi di lavoro di ricerca e RAG?

Perplexity ha rilasciato due modelli di embedding open source volti a migliorare il recupero: il livello vettoriale che rende la ricerca e il RAG meno arbitrari. Il pitch sottolinea l'elevata qualità con un consumo di memoria notevolmente inferiore, fattore importante quando il recupero viene eseguito su larga scala. Per i team che distribuiscono sistemi RAG, gli embedding sono il punto di forza: poco attraenti, ma decisivi per la pertinenza, la latenza e i costi infrastrutturali.

Quali sono i più recenti aggiornamenti dell'"agente" Copilot di Microsoft e come potrebbero influire sul lavoro quotidiano?

La panoramica di Microsoft evidenzia gli agenti progettati per aiutare a gestire il lavoro, incluso un concetto di Project Manager Agent per la pianificazione, l'organizzazione e il monitoraggio delle attività. Il tono suggerisce un'adozione aziendale incrementale: più "controllo di crociera" che pilota automatico completo. In pratica, segnala che Copilot sta andando oltre la semplice stesura di testo, puntando a solleciti sul flusso di lavoro e al coordinamento delle attività. Può essere d'aiuto, ma cambia anche il modo in cui i team si affidano all'automazione quotidianamente.

Notizie di ieri sull'intelligenza artificiale: 27 febbraio 2026

Trova l'ultima intelligenza artificiale nello store ufficiale di AI Assistant

Chi siamo

Torna al blog