🧹 Ritiro di GPT-4o, GPT-4.1, GPT-4.1 mini e OpenAI o4-mini in ChatGPT ↗
OpenAI afferma che presto ritirerà una manciata di vecchi modelli da ChatGPT, tra cui GPT-4o, GPT-4.1, GPT-4.1 mini e o4-mini, lasciando per ora invariato l'accesso alle API. Si tratta in pratica di pulizie di primavera... solo che la scopa è rivolta ad alcuni dei preferiti dai fan.
La parte un po' piccante è che ammettono che GPT-4o aveva un "feeling" che piaceva alla gente, ma l'utilizzo si è spostato bruscamente verso opzioni più recenti. Quindi, sì, è il classico "vi ascoltiamo, ma lo facciamo comunque" - schietto, o semplicemente efficiente.
💰 Amazon è in trattativa per investire fino a 50 miliardi di dollari in OpenAI, afferma una fonte ↗
Secondo quanto riferito, Amazon starebbe valutando l'investimento fino a 50 miliardi di dollari in OpenAI. Una cifra così elevata che quasi non ha più alcun significato, come quando il punteggio di un gioco si trasforma in una notazione scientifica.
Lo stesso rapporto afferma che OpenAI sta cercando di ottenere un'enorme raccolta fondi, con altri importanti finanziatori in lizza. E sì, Amazon detiene già una quota importante in Anthropic, quindi sembra una copertura strategica... o una presa di controllo a due mani, a seconda di quanto drammatica sia la situazione.
🪖 Il Pentagono si scontra con Anthropic sull'uso dell'intelligenza artificiale militare, affermano alcune fonti ↗
Secondo quanto riferito, Anthropic e il Pentagono si stanno scontrando su ciò che è consentito, in particolare sulle barriere che impedirebbero azioni come il puntamento di armi autonome o l'uso di casi di sorveglianza interna. La posizione del Pentagono sembra più vicina al concetto di "se è legale, è utilizzabile", mentre Anthropic sta cercando di mantenere incisivi i principi politici nella discussione.
È legato a trattative contrattuali per un valore fino a 200 milioni di dollari, il che rende la tensione ancora più reale. Questo è uno di quei momenti in cui "l'etica dell'IA" smette di essere una discussione di gruppo e si trasforma in scartoffie, linee di bilancio e riunioni imbarazzanti.
🔎 Perplexity firma un accordo da 750 milioni di dollari con Microsoft per il cloud AI, riporta Bloomberg News ↗
Secondo quanto riferito, Perplexity ha firmato un accordo pluriennale da 750 milioni di dollari per utilizzare Microsoft Azure, con la Foundry di Microsoft che diventa il principale hub per l'approvvigionamento e l'esecuzione di modelli, inclusi sistemi provenienti da diversi laboratori di grandi nomi. Si tratta di una mossa di scalabilità significativa, che spinge Perplexity sempre più nell'orbita di Microsoft (che è accogliente... finché non lo è più).
In particolare, affermano che AWS rimane il loro fornitore di infrastrutture preferito, quindi non si tratta di una rottura netta, ma piuttosto di aggiungere una seconda chiave dell'appartamento "per ogni evenienza". Inoltre, ci sono attriti legali con Amazon sullo sfondo, il che rende l'intero triangolo amoroso del cloud un po' maledetto.
📉 Gli investitori puniscono la spesa delle Big Tech in intelligenza artificiale che genera una crescita più lenta ↗
L'umore di Wall Street: spendere cifre assurde per l'intelligenza artificiale, certo, ma solo se la crescita appare rapida ed evidente. Il contrasto è stato netto: Microsoft è stata duramente colpita dopo che i risultati non hanno placato le preoccupazioni sullo slancio del cloud, mentre Meta ha fatto breccia sui segnali che la sua macchina pubblicitaria basata sull'intelligenza artificiale sta dando i suoi frutti.
Non è che gli investitori improvvisamente detestino la spesa in IA... semplicemente detestano la spesa "fidati di noi, amico". Il che è giusto, anche se fa sembrare le roadmap dei prodotti come se fossero valutate da un contabile molto impaziente.
🕵️ Ex ingegnere di Google condannato per aver rubato segreti di intelligenza artificiale per aziende cinesi ↗
Un ex ingegnere di Google, Linwei Ding, è stato condannato da un tribunale statunitense per aver rubato segreti commerciali relativi all'intelligenza artificiale. Secondo l'accusa, il materiale era destinato a avvantaggiare due aziende cinesi con cui collaborava. Le accuse ruotano attorno a documenti riservati legati all'infrastruttura utilizzata per addestrare grandi modelli di intelligenza artificiale, il cuore poco appariscente ma estremamente importante dell'intera operazione.
Il caso fa parte di un più ampio sforzo statunitense per reprimere i trasferimenti di tecnologia sensibile e ci ricorda che la "concorrenza in materia di intelligenza artificiale" non riguarda solo parametri di riferimento e dimostrazioni di prodotti, ma anche accuse di spionaggio e conseguenze legali molto poco piacevoli.
Domande frequenti
Cosa significa il ritiro di GPT-4o da ChatGPT da parte di OpenAI e quali modelli verranno rimossi?
OpenAI afferma che presto rimuoverà diversi modelli precedenti dal selettore di modelli di ChatGPT, tra cui GPT-4o, GPT-4.1, GPT-4.1 mini e o4-mini. Questo cambia ciò che è possibile selezionare all'interno di ChatGPT, non necessariamente ciò che esiste altrove. OpenAI definisce questa iniziativa come una "pulizia di primavera", guidata dall'utilizzo che si sta spostando verso opzioni più recenti. Se il tuo lavoro dipende dal comportamento di un modello specifico, aspettati alcuni aggiustamenti al flusso di lavoro e pianifica di conseguenza.
L'accesso API a GPT-4o o GPT-4.1 cambierà dopo la loro rimozione da ChatGPT?
In base a quanto affermato qui, l'accesso alle API rimane invariato per ora, anche se tali modelli vengono rimossi da ChatGPT. In altre parole, un'app o un'integrazione potrebbe continuare a funzionare normalmente mentre il selettore del modello di ChatGPT cambia. In molte pipeline, l'approccio più sicuro consiste nel monitorare gli annunci di disponibilità dei modelli ed evitare di dare per scontato che ChatGPT e le offerte API rimangano perfettamente allineate. Se la coerenza è importante, è opportuno tenere a portata di mano dei fallback.
Perché OpenAI ha deciso di ritirare GPT-4o nonostante agli utenti piacesse il suo "feeling"?
OpenAI riconosce esplicitamente che GPT-4o aveva un "feeling" che alcuni preferivano, ma afferma che l'utilizzo si è spostato notevolmente verso modelli più recenti. In pratica, i prodotti spesso restringono le impostazioni predefinite per ridurre la confusione, il sovraccarico di supporto e la frammentazione. Ciò non rende la preferenza immaginaria, significa solo che non era all'avanguardia nella tendenza di utilizzo. Se l'atmosfera vi piaceva, probabilmente dovrete testare le opzioni più recenti finché una non si adatta allo stesso modo al vostro flusso di lavoro.
Cosa significherebbe per la concorrenza nel settore dell'intelligenza artificiale un investimento di Amazon fino a 50 miliardi di dollari in OpenAI?
Secondo quanto riferito, Amazon sarebbe in trattative iniziali per investire fino a 50 miliardi di dollari in OpenAI, oltre a una più ampia e massiccia raccolta fondi. Se ciò dovesse concretizzarsi, potrebbe rappresentare un'importante copertura strategica, soprattutto perché Amazon detiene già una partecipazione significativa in Anthropic. A seconda dei termini, potrebbe plasmare partnership, scelte infrastrutturali e dinamiche competitive tra i maggiori laboratori di intelligenza artificiale e fornitori di servizi cloud. Sebbene i colloqui siano descritti come ancora in fase iniziale, nulla è ancora stato deciso.
Perché il Pentagono e Anthropic stanno discutendo sui limiti dell'intelligenza artificiale militare?
Secondo alcuni rapporti, il Dipartimento della Difesa degli Stati Uniti e Anthropic si stanno scontrando su restrizioni che bloccherebbero usi come il puntamento di armi autonome o la sorveglianza interna. La posizione del Pentagono è descritta come più vicina al principio "se è legale, è utilizzabile", mentre Anthropic vuole che i limiti politici siano più severi fin dall'inizio. Con trattative contrattuali legate a un valore fino a 200 milioni di dollari, la disputa trasforma l'etica nel linguaggio contrattuale. È qui che i guardrail o reggono, o scompaiono silenziosamente.
Cosa cambia con l'accordo da 750 milioni di dollari di Perplexity su Azure e perché mantenere anche AWS?
Perplexity avrebbe firmato un accordo cloud pluriennale da 750 milioni di dollari incentrato su Azure, con Foundry di Microsoft posizionato come hub principale per l'approvvigionamento e l'esecuzione dei modelli. Allo stesso tempo, si dice che continui a definire Amazon Web Services il suo fornitore di infrastrutture preferito, il che indica un approccio multi-cloud piuttosto che un passaggio completo. Le motivazioni comuni includono resilienza, leva negoziale e flessibilità di capacità. Le tensioni legali con Amazon aggiungono ulteriore contesto a questo approccio diviso.
Perché gli investitori stanno penalizzando la spesa delle Big Tech in intelligenza artificiale, nonostante l'intelligenza artificiale sia la priorità?
Il tema descritto è semplice: gli investitori tollereranno ingenti investimenti in IA quando la crescita si manifesta in modo chiaro e rapido, ma non amano le tempistiche "fidati". Nell'esempio fornito, Microsoft ha subito un duro colpo quando i risultati non hanno attenuato le preoccupazioni sullo slancio del cloud, mentre Meta è cresciuta grazie ai segnali che l'IA sta migliorando le performance pubblicitarie. La conclusione è che i mercati vogliono prove concrete: aumento dei ricavi, guadagni di efficienza o un percorso più chiaro verso il ritorno dell'investimento. La spesa da sola non è la chiave; i rendimenti dimostrati sì.
Cosa è successo nel caso dei segreti commerciali dell'ex ingegnere di Google e cosa dovrebbero imparare le aziende da questo?
L'ingegnere di Google Linwei Ding è stato condannato da un tribunale statunitense per aver rubato segreti commerciali relativi all'intelligenza artificiale. Secondo l'accusa, i documenti erano destinati a avvantaggiare due aziende cinesi con cui collaborava. I documenti sarebbero relativi all'infrastruttura di formazione per grandi modelli di intelligenza artificiale, una tecnologia critica e nascosta dietro le quinte. Il caso si inserisce in una più ampia strategia statunitense volta a limitare i trasferimenti di tecnologie sensibili. Per i team, rafforza controlli di accesso più rigorosi, un monitoraggio più rigoroso e un offboarding disciplinato.