Notizie sull'intelligenza artificiale del 5 febbraio 2026

Riepilogo delle notizie sull'intelligenza artificiale: 5 febbraio 2026

🕵️ La Gran Bretagna collaborerà con Microsoft per costruire un sistema di rilevamento dei deepfake

La Gran Bretagna afferma di voler collaborare con Microsoft, il mondo accademico e altri esperti per creare un sistema in grado di individuare i deepfake online, oltre a un metodo adeguato per verificare se gli strumenti di rilevamento sono efficaci in natura.

L'enfasi è posta sui danni più gravi: furto d'identità, frode e contenuti sessuali non consensuali. Non è certo un fenomeno glamour, ma è lì che si concentrano i danni.

🧠 Anthropic rilascia un aggiornamento dell'intelligenza artificiale mentre il mercato punisce i titoli del software

Anthropic ha lanciato un modello Claude aggiornato (Opus 4.6), che offre prestazioni più elevate in ambito di programmazione e finanza, oltre alla capacità di gestire fino a 1 milione di token in una sola volta. Un contesto molto ampio, come dare al modello un'intera tessera della biblioteca.

Stanno anche puntando sugli "agenti" tramite Claude Code, dove i compiti possono essere suddivisi tra assistenti autonomi. Comodo, più di quanto ci si aspetterebbe, e anche il tipo di cambiamento che rende un po' nervosi gli investitori di software tradizionali.

🧑💼 OpenAI presenta il servizio di agente AI come parte della spinta per attrarre le aziende

OpenAI ha annunciato "Frontier", un servizio incentrato sulle aziende per la creazione e la gestione di agenti di intelligenza artificiale, ovvero bot che svolgono compiti specifici come il debug di software, la gestione di flussi di lavoro e cose del genere.

La novità è che è pensato per integrarsi nell'infrastruttura aziendale esistente e persino per supportare agenti di terze parti, il che significa che OpenAI sta cercando di diventare la sala di controllo, non solo il fornitore del modello. Ambizioso... o leggermente possessivo, a seconda di come la si vede.

🪖 Stati Uniti e Cina rinunciano alla dichiarazione congiunta sull'uso dell'intelligenza artificiale in ambito militare

Un gruppo di paesi ha firmato una dichiarazione non vincolante che stabilisce i principi per l'utilizzo dell'intelligenza artificiale in guerra, tra cui la responsabilità umana, strutture di comando chiare e test approfonditi e valutazione dei rischi.

Ma Stati Uniti e Cina non hanno firmato. Il che spiega tutta la storia in un unico, imbarazzante colpo: il regolamento esiste, e i principali attori... non hanno in mano la penna.

🎭 La legislazione di New York richiede la divulgazione degli artisti generati dall'intelligenza artificiale nella pubblicità e rafforza i diritti di pubblicità post mortem

Lo stato di New York ha firmato leggi che impongono alle pubblicità che utilizzano "artisti sintetici" generati dall'intelligenza artificiale di dichiararlo chiaramente al pubblico dello stato, anche se l'inserzionista ha sede altrove. In pratica: non far passare inosservato un finto essere umano e chiamarlo marketing.

Separatamente, lo Stato ha rafforzato le norme sull'uso commerciale delle immagini di persone decedute, comprese le repliche digitali. È un po' tetro, a dire il vero, ma anche molto "benvenuti nell'era in cui l'identità ha bisogno di una cintura di sicurezza"

Domande frequenti

Cosa sta sviluppando la Gran Bretagna insieme a Microsoft per rilevare i deepfake online?

La Gran Bretagna afferma che collaborerà con Microsoft, il mondo accademico e altri esperti per sviluppare un sistema in grado di individuare i deepfake online. Il piano include anche la creazione di un metodo affidabile per verificare l'efficacia degli strumenti di rilevamento anche al di fuori dei laboratori. L'attenzione si concentra sui danni più gravi: impersonificazione, frode e contenuti sessuali non consensuali.

In che modo i test "in-the-wild" per i rilevatori di deepfake saranno diversi dalle demo?

Oltre al rilevatore stesso, la Gran Bretagna sta puntando su un modo per testare gli strumenti di rilevamento dei deepfake in condizioni realistiche. In molti progetti, i modelli sembrano efficaci su set di dati curati, ma si indeboliscono quando cambiano i formati dei contenuti, la compressione o le tattiche avversarie. Un approccio di valutazione strutturato aiuta a confrontare gli strumenti in modo coerente e rivela dove il rilevamento fallisce negli ambienti online live.

Cosa ha cambiato Anthropic in Claude Opus 4.6 e perché il limite dei token è importante?

Anthropic afferma che Claude Opus 4.6 migliora le prestazioni in aree come la codifica e la finanza e può gestire fino a 1 milione di token di contesto. Questa finestra di contesto più ampia può semplificare l'elaborazione di documenti lunghi o basi di codice complesse senza dover ricaricare costantemente le informazioni. Hanno anche evidenziato gli "agenti" tramite Claude Code, dove le attività possono essere suddivise tra helper autonomi.

Cos'è OpenAI "Frontier" e come si inserisce nei flussi di lavoro aziendali?

OpenAI ha annunciato "Frontier" come un servizio incentrato sulle aziende per la creazione e la gestione di agenti di intelligenza artificiale che svolgono compiti specifici, come il debug di software o la gestione di flussi di lavoro. È progettato per integrarsi nell'infrastruttura aziendale esistente, anziché fungere da endpoint di modello autonomo. OpenAI ha inoltre affermato di poter supportare agenti di terze parti, il che implica un livello di controllo per il coordinamento di diversi sistemi di agenti.

Cosa afferma la dichiarazione militare sull'IA e cosa significa per la governance dell'IA?

La dichiarazione è descritta come non vincolante e stabilisce i principi per l'utilizzo dell'IA in guerra, tra cui la responsabilità umana, strutture di comando chiare e test rigorosi e una valutazione dei rischi. Reuters ha riferito che molti paesi hanno firmato, ma Stati Uniti e Cina no. Per la governance dell'IA, questa deroga è importante perché esclude i principali attori da un insieme condiviso di norme stabilite.

Cosa richiedono le nuove norme di New York per gli artisti generati dall'intelligenza artificiale nelle pubblicità?

Lo Stato di New York ha firmato leggi che impongono alla pubblicità che utilizza "artisti sintetici" generati dall'intelligenza artificiale di dichiararlo chiaramente al pubblico dello Stato, anche se l'inserzionista ha sede altrove. Separatamente, lo Stato ha rafforzato i diritti di pubblicità post mortem relativi all'uso commerciale delle immagini di persone decedute, comprese le repliche digitali. In termini pratici, questo spinge la governance dell'intelligenza artificiale verso un'etichettatura più chiara e controlli più rigorosi sull'uso dell'identità.

Notizie di ieri sull'intelligenza artificiale: 4 febbraio 2026

Trova l'ultima intelligenza artificiale nello store ufficiale di AI Assistant

Chi siamo

Torna al blog