Notizie sull'intelligenza artificiale del 14 gennaio 2026

Riepilogo delle notizie sull'intelligenza artificiale: 14 gennaio 2026

🧠 OpenAI collabora con Cerebras

OpenAI afferma che aggiungerà 750 MW di elaborazione AI a bassissima latenza tramite Cerebras, in pratica un tentativo di far sì che le risposte sembrino più "in tempo reale" anziché "vai a prepararti il ​​tè e torna più tardi".

Il concetto rimane semplice: cicli di inferenza più rapidi (chiedere - pensare - rispondere) significano che le persone rimangono più a lungo e svolgono carichi di lavoro più pesanti... il che, sì, è coerente. La capacità verrà implementata in fasi, con ulteriori aggiunte entro il 2028.

🔍 Google sfrutta le email e la cronologia di YouTube per promuovere l'intelligenza artificiale personalizzata

Gemini di Google sta diventando sempre più "personalizzato" attingendo a dati come Gmail, Ricerca e cronologia di YouTube, se comunque accetti (ed è disattivato di default). È la versione chatbot del tuo telefono che sa che hai fame prima di te.

L'idea è che Gemini possa dedurre preferenze e contesto, in modo che le risposte sembrino meno generiche e più come se ricordassero davvero la tua vita. Comodo, e anche il tipo di cosa che ti fa fermare a metà scorrimento e dire "Aspetta, sa un sacco di cose"

🧩 Via libera alla vendita in Cina di un potente chip AI di Nvidia, con alcune condizioni

chip AI H200 di Nvidia alla Cina, ma con una serie di limitazioni (priorità per la fornitura statunitense, ulteriori fasi di revisione, limiti alla destinazione dei chip).

I legislatori sono divisi: alcuni lo vedono come un rischio per la sicurezza nazionale, altri come una mossa competitiva (perché se non vendi, lo farà qualcun altro... o la Cina costruisce più velocemente). È una di quelle mosse politiche che sono allo stesso tempo "strategiche" e confuse, in un certo senso.

🛡️ La startup belga di sicurezza informatica Aikido raggiunge lo status di unicorno con un nuovo round di finanziamenti

Aikido Security ha raggiunto una valutazione di 1 miliardo di dollari dopo aver raccolto 60 milioni di dollari , puntando molto sulla strategia delle "barriere di sicurezza per gli sviluppatori", mentre la codifica assistita dall'intelligenza artificiale continua a... moltiplicare codice, bug e sorprese impreviste.

Lo stanno pubblicizzando come una soluzione di sicurezza pensata per gli sviluppatori, che segnala automaticamente i rischi senza trasformare ogni sprint in un incubo per la conformità. La parte un po' folle è la rapidità con cui sono cresciuti: il mercato sta chiaramente pagando per "per favore, impedisci al mio codice AI di diffondere vulnerabilità".

👩💻 Anthropic amplia Claude Code oltre le attività di sviluppo con Cowork

Anthropic sta spingendo Claude Code verso un'atmosfera più ampia di "lavora con me" tramite Cowork : meno un semplice aiuto per la codifica, più un assistente collaborativo che può inserirsi nei flussi di lavoro.

Fa parte di una tendenza più ampia, in cui gli assistenti al codice smettono di essere dei semplici strumenti di completamento automatico e iniziano a comportarsi come compagni di squadra semi-autonomi... il che è entusiasmante, o allarmante, o entrambe le cose, a seconda di come è andata l'ultima revisione delle pubbliche relazioni.

🧯 depthfirst annuncia un investimento di serie A da 40 milioni di dollari per proteggere il software mondiale

depthfirst ha raccolto 40 milioni di dollari per sviluppare un approccio alla sicurezza del software basato sull'intelligenza artificiale, il tipo di approccio che dovrebbe individuare le vulnerabilità reali con meno falsi allarmi (il sogno eterno, in realtà).

Si stanno posizionando come un "laboratorio di intelligenza artificiale applicata" per la sicurezza, con finanziamenti mirati a espandere la ricerca e i prodotti. Se l'intelligenza artificiale aiuta a scrivere più codice più velocemente, la contromossa è sostanzialmente quella di aiutarlo a difendersi più velocemente: un serpente che mangia un altro serpente, in impermeabile.

Domande frequenti

Cosa significa la partnership tra OpenAI e Cerebras in termini di velocità di risposta?

OpenAI afferma che la partnership con Cerebras aggiunge 750 MW di elaborazione AI a bassissima latenza, con l'obiettivo di rendere le risposte più realistiche. Il vantaggio pratico è la possibilità di cicli di inferenza più rapidi (chiedi, pensa, rispondi), in modo che le interazioni avvengano con maggiore rapidità. Può anche rendere più fluidi i carichi di lavoro più pesanti, senza lunghe e fastidiose pause. Si prevede che questa capacità verrà implementata in fasi successive entro il 2028.

Quando saranno effettivamente disponibili i 750 MW di potenza di calcolo di Cerebras?

L'annuncio lo presenta come un'implementazione graduale, con maggiore capacità disponibile entro il 2028 anziché tutta in una volta. Con le rampe di implementazione graduali, i guadagni iniziali tendono a emergere prima, per poi ampliarsi con l'espansione dell'infrastruttura. Se si monitora l'impatto, i segnali più chiari si manifestano solitamente in una minore latenza e prestazioni più stabili sotto carico. Il titolo è un'implementazione pluriennale.

In che modo Google Gemini utilizza la cronologia di Gmail, Ricerca e YouTube per la personalizzazione?

Il piano di Google è quello di rendere Gemini più personalizzato attingendo da fonti come Gmail, Ricerca e cronologia di YouTube, ma solo se l'utente acconsente. È descritto come disattivato per impostazione predefinita, il che è importante per la privacy e per definire le aspettative. L'obiettivo è che Gemini deduca le preferenze e il contesto dell'utente, in modo che le risposte sembrino meno generiche. Molti utenti valuteranno la praticità rispetto alla quantità di "memoria" che si sentono a proprio agio nell'attivare.

La personalizzazione di Gemini è attivata automaticamente? E qual è il compromesso in termini di privacy?

In questa implementazione, Google imposta la funzionalità come attivabile e disattivata per impostazione predefinita. Ciò significa che si sceglie di consentire a Gemini di utilizzare segnali provenienti da prodotti come Gmail o la cronologia di YouTube per personalizzare le risposte. Il compromesso è semplice: un contesto più ampio può migliorare la pertinenza, ma aumenta anche la quantità di dati personali coinvolti nell'esperienza. Un approccio comune consiste nell'attivarla in modo selettivo e rivedere regolarmente le impostazioni.

Quali condizioni hanno imposto gli Stati Uniti alle vendite del chip Nvidia H200 alla Cina?

L'approvazione qui descritta è accompagnata da alcune limitazioni, tra cui la priorità per la fornitura statunitense, ulteriori fasi di revisione e limiti alla destinazione finale dei chip. Il dibattito è anche ben delineato: alcuni legislatori vedono un rischio per la sicurezza nazionale, mentre altri sostengono che sia una questione di competitività: se le aziende statunitensi non vendono, fornitori alternativi o sostituti nazionali potrebbero accelerare. Si tratta di una mossa politica con intenti strategici e compromessi complessi.

Perché le startup di sicurezza basate sull'intelligenza artificiale come Aikido e DepthFirst stanno raccogliendo grandi finanziamenti in questo momento?

Il tema è che la codifica assistita dall'intelligenza artificiale sta moltiplicando l'output di codice, e con esso bug e vulnerabilità impreviste, quindi la domanda di protezioni a misura di sviluppatore è in aumento. Aikido si posiziona come sicurezza "developer-first" che segnala i rischi senza trasformare ogni sprint in un ostacolo alla conformità, mentre depthfirst propone un approccio nativo basato sull'intelligenza artificiale volto a individuare problemi reali con meno falsi allarmi. Con l'aumento del volume di codice, "proteggerlo più velocemente" diventa una voce di bilancio, non un optional.

Notizie di ieri sull'intelligenza artificiale: 13 gennaio 2026

Trova l'ultima intelligenza artificiale nello store ufficiale di AI Assistant

Chi siamo

Torna al blog