🧠 Nvidia afferma che prenderà in considerazione l'investimento in un'IPO di OpenAI, dice Huang alla CNBC ↗
Jensen Huang di Nvidia ha pubblicamente dichiarato che l'azienda è ancora disponibile a sostenere la prossima mega-raccolta fondi di OpenAI, e persino un'eventuale IPO. Trasmette un'energia da "stiamo bene, va tutto bene"... ma anche questo fa parte del messaggio.
Qui si parla di portata: continuano a circolare voci di un round di investimento di grandi dimensioni (e di una valutazione colossale), mentre indiscrezioni lasciano intendere che OpenAI stia valutando alternative ad alcuni dei chip più recenti di Nvidia. Nessuno dice "rottura" ad alta voce, ma si sente un leggero odore di fumo in cucina.
🏭 Il CEO di Intel afferma che l'azienda produrrà GPU, rese popolari da Nvidia ↗
Il CEO di Intel, Lip-Bu Tan, afferma che Intel sta puntando alle GPU, i picconi e le pale da corsa all'oro dell'intelligenza artificiale moderna. E sì, questo significa entrare nel territorio di Nvidia con gli stivali ai piedi.
Intel ha anche assunto un architetto senior (in precedenza in Qualcomm) per guidare gli sforzi sulle GPU, concentrandosi inizialmente sui data center. Il sottinteso è chiaro: se si vuole tornare a parlare di intelligenza artificiale, serve una storia seria sulle GPU, non solo una serie di slide.
🕵️♀️ L'ICO annuncia un'indagine su Grok ↗
L'autorità di controllo sulla protezione dei dati del Regno Unito sta formalmente indagando sul trattamento dei dati personali correlato a Grok, oltre che sul potenziale del sistema di generare immagini sessuali dannose. Questa seconda parte è un campanello d'allarme che si sente fin da lontano.
L'indagine cita sia l'entità X che controlla i dati nel contesto UE/SEE sia xAI stessa, in pratica: "chi l'ha creata, chi l'ha gestita, chi l'ha lasciata libera?". È uno di quei momenti in cui "muoversi velocemente" incontra "scartoffie che mordono"
💻 OpenAI passa al modello di team autonomo con il lancio di Codex Desktop ↗
OpenAI avrebbe lanciato un'app desktop per macOS per Codex, inquadrandola meno come un sistema di completamento automatico e più come una gestione di piccoli agenti di programmazione che eseguono attività in parallelo. Questo è il futuro del software, oppure un modo molto costoso per inventare nuove classi di bug.
Il concetto è "attività di lunga durata" più supervisione, con elementi come sandbox e strumenti di workflow per impedire agli agenti di calpestare il tuo repository. È un cambio di postura: non stai digitando, stai dirigendo, come su un set cinematografico in cui gli attori riscrivono occasionalmente la sceneggiatura.
🧯 "Diffusione dei deepfake e sempre più compagni di intelligenza artificiale": sette spunti dall'ultimo rapporto sulla sicurezza dell'intelligenza artificiale ↗
È stato pubblicato un importante rapporto internazionale sulla sicurezza dell'IA, che sostanzialmente afferma che le capacità stanno aumentando, ma il controllo è ancora instabile. Il rapporto segnala prestazioni "frastagliate" (brillanti un secondo, decisamente sbagliate quello dopo), il che sembra... dolorosamente familiare.
Si parla anche dell'accelerazione dei deepfake, della crescente popolarità dei compagni di intelligenza artificiale (con molto forte ) e dell'imbarazzante problema del doppio uso nella conoscenza biochimica. Il messaggio è: il motore è diventato più veloce, il volante no.
Domande frequenti
Cosa ha detto Nvidia in merito all'investimento in una IPO di OpenAI e perché è importante?
Il CEO di Nvidia, Jensen Huang, ha affermato che l'azienda prenderebbe in considerazione l'investimento se OpenAI dovesse quotarsi in borsa, un segnale che la relazione rimane strategicamente significativa. In questo ciclo di notizie sulla tecnologia dell'intelligenza artificiale, il sottotesto è la scala: round di finanziamento più ampi tendono a tradursi in una maggiore domanda di elaborazione. Si legge anche come una rassicurazione silenziosa per i mercati sul fatto che le principali partnership nel campo dell'intelligenza artificiale possono resistere anche sotto la pressione della concorrenza.
OpenAI sta cercando alternative ai nuovi chip di Nvidia?
Alcuni report suggeriscono che OpenAI stia valutando alternative ad alcuni dei chip più recenti di Nvidia, e questo può indicare diverse motivazioni pratiche. In molte pipeline, i team valutano diversi fornitori per ridurre i costi, aggirare i colli di bottiglia nella fornitura o ottimizzare le prestazioni per carichi di lavoro specifici. Questo non implica automaticamente una rottura: più spesso riflette leva finanziaria, ridondanza e ottimizzazione continua in un panorama hardware in rapida evoluzione.
Perché Intel sta improvvisamente puntando sulle GPU per i carichi di lavoro dell'intelligenza artificiale?
Il CEO di Intel, Lip-Bu Tan, ha affermato che Intel produrrà GPU, concentrandosi inizialmente sui data center, un'esplicita mossa verso il territorio principale di Nvidia. Le GPU sono i "picconi e le pale" per l'addestramento e l'inferenza dell'intelligenza artificiale moderna, quindi una roadmap credibile per le GPU rappresenta una via diretta per tornare al dibattito sul computing. Questa notizia sulla tecnologia dell'intelligenza artificiale suggerisce anche che Intel vuole competere sulla profondità della piattaforma, non solo sulle CPU.
Cosa sta indagando l'ICO del Regno Unito su Grok e xAI?
L'Information Commissioner's Office (ICO) del Regno Unito ha annunciato un'indagine formale sulla gestione dei dati personali relativi a Grok e sul potenziale del sistema di generare immagini sessuali dannose. L'indagine individua sia l'entità X che controlla i dati nel contesto UE/SEE sia xAI, concentrandosi su chi è responsabile di cosa. Gli esiti comuni in casi come questo includono richieste di informazioni, modifiche necessarie ai processi e potenziali azioni coercitive.
Che cos'è Codex Desktop e in che modo gli "agenti di codifica" cambiano il lavoro quotidiano?
Codex Desktop è descritto come un'app per macOS che si propone meno come un sistema di completamento automatico e più come un modo per supervisionare attività di codifica parallele e di lunga durata. Un approccio comune è quello di trattare gli agenti come collaboratori junior: assegnare compiti con un ambito di lavoro ristretto, richiedere checkpoint e rivedere gli output prima di unirli. Strumenti come sandbox e guardrail del flusso di lavoro sono importanti perché i sistemi agentici possono muoversi rapidamente e possono anche introdurre nuove e inaspettate modalità di errore.
Quali sono le conclusioni più importanti dell'ultimo rapporto sulla sicurezza dell'intelligenza artificiale (deepfake, companion, doppio uso)?
Il rapporto evidenzia che le capacità dell'IA stanno accelerando, mentre il controllo rimane disomogeneo, con prestazioni "frastagliate" che possono oscillare da eccellenti a decisamente errate. Segnala inoltre l'accelerazione dei deepfake, il crescente utilizzo di dispositivi di IA con rischi di coinvolgimento emotivo e preoccupazioni sul duplice uso nelle conoscenze biochimiche. In risposta a ciò, le organizzazioni investono tipicamente in monitoraggio, red-teaming, policy guardrail e chiari percorsi di escalation quando i modelli si comportano in modo inaspettato.