Notizie sull'intelligenza artificiale del 27 dicembre 2025

Riepilogo delle notizie sull'intelligenza artificiale: 27 dicembre 2025

🧯 OpenAI sta assumendo un nuovo responsabile della preparazione per cercare di prevedere e mitigare i danni dell'IA

OpenAI ha pubblicato un annuncio per la posizione di "Responsabile della preparazione", in pratica la persona incaricata di immaginare i peggiori utilizzi plausibili dei modelli di frontiera e di costruire poi delle misure di sicurezza che resistano alla pressione (non solo sensazioni e documenti programmatici).

La procedura di inserimento in listino si basa fortemente sulla modellazione, valutazione e mitigazione delle minacce, considerandole un vero e proprio flusso operativo. Si tratta di un lavoro di sicurezza inquadrato come la distribuzione di un software: rassicurante da un lato, leggermente inquietante dall'altro, perché suggerisce che i rischi siano ormai plasmati dal prodotto stesso.

🧑⚖️ La Cina pubblica una bozza di regolamento per disciplinare l'intelligenza artificiale con interazione simile a quella umana

L'autorità cinese di regolamentazione della sicurezza informatica ha diffuso una bozza di regolamento riguardante i servizi di intelligenza artificiale che simulano la personalità umana e coinvolgono emotivamente gli utenti: compagni loquaci, assistenti civettuoli, insomma, tutta quella zona del "sei reale?".

Un aspetto degno di nota: i fornitori dovrebbero avvertire contro l'abuso e intervenire se gli utenti mostrano segni di dipendenza. È insolitamente esplicito riguardo al rischio psicologico, come se qualcuno avesse osservato la tendenza degli "amici virtuali basati sull'IA" e avesse deciso: "Non senza cinture di sicurezza".

🧩 Addio, GPT-5. Ciao, Qwen

Secondo Wired, Qwen sta conquistando il pubblico non perché sia ​​la tavola da surf più performante in assoluto, ma perché ha un peso variabile ed è facile da personalizzare, caratteristiche che, in pratica, sono proprio ciò che i costruttori continuano a preferire. È "lo strumento che si può effettivamente impugnare", non quello nascosto dietro una corda di velluto.

L'articolo inquadra questo fenomeno come un cambiamento più ampio: i modelli aperti che si integrano perfettamente nei prodotti (e vengono perfezionati internamente) possono contare più di marginali vantaggi in classifica. Un po' pungente, forse un po' critico nei confronti dei laboratori chiusi... ma il concetto è chiaro.

🎁 OpenAI e Anthropic raddoppiano i limiti di utilizzo dell'IA per dare una spinta agli sviluppatori durante le festività: tutto quello che c'è da sapere

OpenAI e Anthropic hanno temporaneamente aumentato i limiti di utilizzo per i loro strumenti dedicati alla programmazione, offrendo ai singoli abbonati più spazio per eseguire flussi di lavoro più complessi senza incorrere immediatamente nel raggiungimento dei limiti.

Mint precisa che l'incremento di potenza è pensato per gli utenti più esigenti, dopodiché le prestazioni torneranno alla normalità al termine del periodo promozionale. È un piacevole "ecco più energia a disposizione", ma anche un tacito promemoria del fatto che la capacità rimane comunque un limite finito e tangibile.

💻 Shane Legg, co-fondatore di Google DeepMind, svela la "regola del laptop" per capire se l'intelligenza artificiale può sostituire il tuo lavoro

Shane Legg ha proposto un'euristica schietta: se un lavoro può essere svolto interamente tramite un computer portatile (schermo, tastiera, microfono, fotocamera, ecc.), si tratta del tipo di lavoro cognitivo in cui l'intelligenza artificiale avanzata può operare sempre più facilmente.

Ha anche usato un tono un po' cauto, osservando che alcuni lavori "completamente online" si basano ancora sul contatto umano e sulla personalità. Quindi sì, la regola è severa... ma non è una ghigliottina, piuttosto un avvertimento di tempesta.

Notizie sull'IA di ieri: 26 dicembre 2025

Trova l'ultima intelligenza artificiale nello store ufficiale di AI Assistant

Chi siamo

Torna al blog