Notizie sull'intelligenza artificiale del 4 marzo 2026

Riepilogo delle notizie sull'intelligenza artificiale: 4 marzo 2026

🏛️ Il governo creerà un nuovo laboratorio per mantenere il Regno Unito all'avanguardia nelle scoperte dell'intelligenza artificiale

Il Regno Unito sta istituendo un laboratorio di ricerca sull'intelligenza artificiale fondamentale sostenuto dal governo, presentandolo come un lavoro "a cielo aperto", ovvero rischioso, lento e che a volte dà i suoi frutti in un modo che fa sembrare tutti gli altri come se si fossero appisolati. ( GOV.UK )

L'obiettivo non è solo "modelli più grandi, più GPU": si tratta di affrontare difetti persistenti come allucinazioni, memoria breve e ragionamenti imprevedibili, oltre a dare ai ricercatori accesso a risorse di calcolo avanzate attraverso l'AI Research Resource. Sembra molto sensato... e anche, in silenzio, come un tentativo di impedire che le migliori menti del Regno Unito vengano immediatamente risucchiate altrove. ( GOV.UK )

🧨 Il CEO di Nvidia accenna alla fine degli investimenti in OpenAI e Anthropic

Jensen Huang sta segnalando che Nvidia potrebbe non continuare a investire nei laboratori di intelligenza artificiale all'avanguardia allo stesso modo, con le dinamiche delle IPO (e l'enorme portata degli assegni in discussione) che rendono più difficile realizzare questo tipo di finanziamento. ( Reuters )

È un cambiamento di tono che vale la pena notare: Nvidia è la regina di picconi e pale di tutto questo boom, eppure lascia intendere che "possedere quote dei minatori" non è più la strategia migliore. O forse si tratta solo di un modo per evitare di essere criticati, come fanno i CEO, come respirare. ( Reuters )

🧩 Esclusiva: un grande gruppo tecnologico sostiene Anthropic nella lotta al Pentagono mentre gli investitori premono per ridurre l'escalation dello scontro sulle garanzie dell'intelligenza artificiale

La situazione di stallo tra Anthropic e il Pentagono si sta trasformando in una vera e propria pentola a pressione: gli investitori vorrebbero abbassare la temperatura, mentre l'azienda cerca di mantenere la sua posizione sul linguaggio di salvaguardia (in particolare in materia di sorveglianza). ( Reuters )

Il sottotesto della storia è quasi più forte del testo stesso: nell'era dell'intelligenza artificiale, la formulazione dei contratti non è una "pignoleria legale", ma sostanzialmente una politica di prodotto, e decide se un modello diventa uno strumento, un'arma o una passività incombente. ( Reuters )

🪖 Sam Altman ammette che OpenAI non può controllare l'uso dell'intelligenza artificiale da parte del Pentagono

Altman avrebbe dichiarato allo staff che OpenAI non può controllare il modo in cui il Pentagono utilizza la sua IA una volta che è stata implementata, il che è un colpo al cuore perché dà esattamente il nome alla paura che la gente ha iniziato a provare. ( The Guardian )

Il contesto più ampio è l'intensificarsi dell'attrito tra "aiuteremo, con le regole" e "aiuteremo, punto e basta", oltre alle reazioni interne e pubbliche quando l'adozione militare sembra affrettata o opportunistica. L'etica qui è meno una linea netta e più una macchia di vernice fresca: tutti ci mettono piede, poi litigano su chi ne è vittima. ( The Guardian )

🧬 Nuova borsa di studio sull'intelligenza artificiale nella genomica con il Sanger Institute e Google DeepMind

Il Wellcome Sanger Institute sta lanciando una borsa di studio accademica finanziata da DeepMind incentrata sull'applicazione dell'intelligenza artificiale alla genomica, posizionata come il primo posto nel suo genere per un borsista DeepMind in questo specifico settore. ( sanger.ac.uk )

Ciò che è interessante (e, francamente, un po' rinfrescante) è l'enfasi sui problemi genomici poco esplorati, in cui l'intelligenza artificiale non è ancora onnipresente, oltre alla nota esplicita che DeepMind non dirige la ricerca del ricercatore. È come dare a qualcuno un razzo e dirgli "vai a scoprire qualcosa", invece di "vai a ottimizzare la nostra tabella di marcia". ( sanger.ac.uk )

Domande frequenti

Cos'è il Fundamental AI Research Lab, sostenuto dal governo del Regno Unito, e cosa farà?

Il Fundamental AI Research Lab, sostenuto dal governo, si presenta come un progetto di ricerca "a cielo aperto", un lavoro ad alto rischio che potrebbe richiedere tempo per dare i suoi frutti. Piuttosto che concentrarsi solo sulla scalabilità di modelli sempre più grandi, mira ad affrontare problemi persistenti come allucinazioni, memoria breve e ragionamento imprevedibile. L'idea è che le innovazioni derivino dai fondamentali, non semplicemente dall'aggiunta di più GPU.

In che modo il Fundamental AI Research Lab del Regno Unito potrebbe aiutare i ricercatori ad accedere a risorse di calcolo avanzate?

Oltre al Fundamental AI Research Lab del Regno Unito, il piano prevede l'accesso a una notevole capacità di calcolo tramite l'AI Research Resource. In pratica, ciò significa che i ricercatori possono condurre esperimenti che altrimenti sarebbero limitati da costi o infrastrutture. Consente inoltre ai team di testare idee su una scala in cui problemi come affidabilità e robustezza diventano concreti, non solo teorici.

Perché il Regno Unito pone l'accento sulle allucinazioni, sulla memoria corta e sul ragionamento imprevedibile?

Queste debolezze sono quelle che emergono durante l'implementazione e possono erodere rapidamente la fiducia. L'obiettivo dichiarato suggerisce che l'obiettivo non sia solo la capacità, ma anche l'affidabilità: ridurre i risultati inventati, migliorare il modo in cui i modelli gestiscono il contesto più lungo e rendere il ragionamento meno irregolare. Questo tipo di lavoro è spesso più lento e rischioso, ed è per questo che viene inquadrato come ricerca fondamentale.

Cosa segnala in realtà il cambio di tono di Nvidia negli investimenti in OpenAI o Anthropic?

Il report lo presenta come un indizio del fatto che Nvidia potrebbe non continuare a investire nei laboratori di frontiera allo stesso modo, soprattutto perché le dinamiche delle IPO e gli assegni di importo elevato complicano tale strategia. Pur essendo un leader nel settore dell'hardware AI, suggerisce che le quote di proprietà non siano sempre la mossa migliore. Potrebbe anche trattarsi di un messaggio cauto, comune nei commenti dei dirigenti.

Perché la controversia tra Anthropic e il Pentagono sul "linguaggio di salvaguardia" è così importante?

Il punto chiave dell'articolo è che la formulazione del contratto può trasformarsi in una policy di prodotto, soprattutto quando riguarda la sorveglianza e altri usi sensibili. Gli investitori vorrebbero attenuare la tensione, mentre l'azienda cerca di mantenere la propria posizione sulle garanzie. In molte implementazioni di intelligenza artificiale, queste clausole determinano l'utilizzo del sistema e i rischi che l'azienda accetta di fatto.

Cosa intende Sam Altman quando afferma che OpenAI non può controllare il modo in cui il Pentagono utilizza l'intelligenza artificiale?

Descrive una limitazione pratica: una volta implementato uno strumento, lo sviluppatore originale potrebbe avere una capacità limitata di gestirne l'utilizzo a valle. Questo è un punto a favore perché evidenzia il timore fondamentale che le persone nutrono riguardo all'adozione militare: le regole possono esistere in fase di stipulazione dei contratti, ma la loro applicazione può essere difficile. Riflette anche una più ampia tensione tra "aiuto, con vincoli" e "aiuto, indipendentemente"

Notizie di ieri sull'intelligenza artificiale: 3 marzo 2026

Trova l'ultima intelligenza artificiale nello store ufficiale di AI Assistant

Chi siamo

Torna al blog