Notizie AI 22 febbraio 2026

Riepilogo delle notizie sull'intelligenza artificiale: 22 febbraio 2026

🏫 In alcune scuole, i chatbot interrogano gli studenti sul loro lavoro. Ma la rivoluzione dell'intelligenza artificiale preoccupa gli insegnanti

Alcune scuole australiane stanno sperimentando una versione più incisiva del "mostra il tuo lavoro": gli studenti completano un compito, poi un chatbot con intelligenza artificiale li interroga in un dialogo continuo per verificare che abbiano capito ciò che hanno consegnato. È fondamentalmente un esame orale, ma con una macchina che chiede "cosa intendi con questo?" finché non inizi a dimenarti.

La preoccupazione maggiore è l'implementazione non uniforme: un documento di settore avverte che i paesi che adottano rapidamente le tecnologie potrebbero accelerare, mentre altri restano indietro, creando un sistema educativo a due velocità. Gli insegnanti continuano anche a segnalare le preoccupazioni note, e ancora serie: privacy, benessere e come evitare che "l'IA aiuti" si trasformi in "l'IA l'ha fatto".

👮 La polizia metropolitana utilizza gli strumenti di intelligenza artificiale forniti da Palantir per segnalare la cattiva condotta degli agenti

La Metropolitana di Londra sta utilizzando l'intelligenza artificiale fornita da Palantir per analizzare i modelli interni della forza lavoro - malattie, assenze, straordinari - alla ricerca di segnali che potrebbero essere correlati a problemi di standard professionali. Si tratta di un progetto pilota a tempo limitato e, cosa fondamentale, la Metropolitana afferma che sono ancora gli esseri umani a prendere le decisioni... ma questo "comunque" comporta molto lavoro.

La Federazione di Polizia non ne è entusiasta, definendolo "sospetto automatizzato" e mettendo in guardia contro strumenti poco trasparenti che interpretano erroneamente stress e carico di lavoro come illeciti. È uno di quei momenti in cui la tecnologia sembra perfetta su una diapositiva, poi immagini come si sente a terra e diventa improvvisamente irritante.

🛡️ L'autorità di controllo della privacy del Regno Unito lancia un allarme sulle immagini generate dall'intelligenza artificiale in una dichiarazione congiunta

L'ICO del Regno Unito si è unita ad altri enti regolatori in un avvertimento congiunto sulle immagini generate dall'intelligenza artificiale che raffigurano persone identificabili senza consenso: in sostanza, non considerate "sintetico" una scusa magica. Il messaggio è di creare misure di sicurezza in anticipo e coinvolgere gli enti regolatori, invece di ricorrere alla classica mossa tecnologica di spedire prima e scusarsi poi.

Sottolineano anche i rischi maggiori per i bambini, il che è comprensibile, perché una volta che questa roba si diffonde è come cercare di rimettere i brillantini in un barattolo. Il punto è che la privacy e la dignità sono destinate a sopravvivere al ciclo della moda, o almeno così sembra.

🪖 Il segretario alla Difesa degli Stati Uniti Hegseth convoca il CEO di Anthropic per colloqui difficili sull'uso militare di Claude, riporta Axios

Reuters riporta che il Segretario alla Difesa degli Stati Uniti incontrerà l'amministratore delegato di Anthropic per quella che viene descritta come una conversazione più conflittuale sull'uso militare di Claude. Il Pentagono vorrebbe che i principali fornitori di intelligenza artificiale rendessero i modelli disponibili su reti classificate con meno restrizioni, e Anthropic si è opposta a qualsiasi allentamento delle misure di sicurezza.

Il sottotesto sembra il classico dilemma del "muoversi velocemente ma... con i missili coinvolti". Se le parti non riescono a trovare un accordo sui limiti, il rapporto potrebbe deteriorarsi o addirittura interrompersi. Eppure Anthropic sta anche segnalando che i colloqui con il governo rimangono costruttivi, quindi è teso, ma non ci sono ancora testi di rottura definitiva.

🧠 ChatGPT - Note di rilascio

Le note di rilascio di OpenAI indicano una finestra di contesto estesa per la modalità "Riflessione", il che significa che è possibile alimentare il modello con più testo e mantenere coerenti i thread più lunghi senza che vengano persi dettagli precedenti. Se vi è mai capitato di vedere un modello "dimenticare" qualcosa che avete appena detto (dolore), questo articolo è mirato proprio a questo.

È un upgrade molto nerd che cambia silenziosamente ciò che è pratico: documenti più lunghi, progetti più intricati, sessioni di ricerca più disordinate. Non è glamour, ma è il tipo di cambiamento idraulico che improvvisamente fa sembrare tutta la casa più grande.

Domande frequenti

Cosa significa quando le scuole utilizzano i chatbot per "interrogare" gli studenti sui compiti?

In alcune scuole australiane, gli studenti completano un compito e poi si confrontano con un chatbot di intelligenza artificiale che ne verifica il ragionamento. Funziona come un'orale orale, spingendo gli studenti a spiegare cosa hanno scritto e perché. Lo scopo è verificare la comprensione, non solo il risultato. Può anche evidenziare lacune quando uno studente non è in grado di difendere affermazioni chiave.

In che modo i chatbot basati sull'intelligenza artificiale nelle scuole potrebbero creare un sistema educativo "a due velocità"?

Un documento di settore avverte che le scuole che adottano rapidamente i sistemi potrebbero prendere il sopravvento, mentre quelle che li adottano più lentamente potrebbero restare indietro. Se alcune scuole implementassero strumenti di intelligenza artificiale per valutare la comprensione, supportare l'apprendimento o scoraggiare l'abuso, potrebbero migliorare i risultati prima. Altre potrebbero non disporre di budget, personale o chiarezza politica per implementare sistemi simili. Questa adozione disomogenea potrebbe ampliare le lacune esistenti in termini di risorse e risultati.

Come stanno cercando gli insegnanti di impedire che "l'IA ha aiutato" si trasformi in "l'IA ha fatto tutto"?

Un approccio comune è quello di spostare la valutazione verso il processo e la spiegazione, non solo sul prodotto finito. Domande, bozze, riflessioni o verifiche orali in stile chatbot possono rendere più difficile la consegna di elaborati non compresi. Gli insegnanti possono anche stabilire limiti più rigidi per l'assistenza accettabile, come il brainstorming rispetto alla riscrittura completa. L'enfasi rimane sulla dimostrazione della comprensione, non sul controllo di ogni strumento.

Quali problemi di privacy e benessere emergono quando l'intelligenza artificiale viene utilizzata nelle aule?

Gli insegnanti continuano a sollevare preoccupazioni su quali dati degli studenti vengano raccolti, dove vengano archiviati e chi possa accedervi. Ci sono anche preoccupazioni per il benessere degli studenti, se si sentono costantemente monitorati o sottoposti a pressioni da domande automatiche. I bambini rappresentano un gruppo a rischio specifico, perché le informazioni sensibili possono diffondersi o persistere nei sistemi in modi inaspettati. Molte scuole mirano a implementare misure di sicurezza in anticipo, piuttosto che cercare di adattarle in un secondo momento.

In che modo la Polizia Metropolitana utilizza l'intelligenza artificiale fornita da Palantir per segnalare potenziali comportamenti scorretti degli agenti?

La Metropolitan Police di Londra sta utilizzando l'intelligenza artificiale fornita da Palantir per analizzare i modelli di forza lavoro, come malattie, assenze e straordinari. L'obiettivo è individuare segnali che potrebbero essere correlati a problemi di standard professionali. È descritto come un progetto pilota a tempo limitato e la Metropolitan Police afferma che sono comunque gli esseri umani a prendere le decisioni. I critici sostengono che lo strumento possa essere percepito come "sospetto automatico" se interpreta lo stress come un illecito.

Perché i sindacati di polizia sono preoccupati per il “sospetto automatizzato” generato dagli strumenti di controllo basati sull’intelligenza artificiale?

La preoccupazione della Federazione di Polizia è che modelli opachi possano dedurre comportamenti scorretti da modelli che hanno spiegazioni plausibili. Picchi di carico di lavoro, problemi di salute e stress possono modificare le presenze o gli straordinari senza implicare comportamenti illeciti. Se la logica dello strumento non è trasparente, diventa più difficile per gli agenti contestare le segnalazioni o per i manager calibrare soglie di equità. Anche con decisioni umane, i segnali automatizzati possono comunque influenzare i risultati.

Cosa mette in guardia l'ICO del Regno Unito riguardo alle immagini di persone identificabili generate dall'intelligenza artificiale?

L'autorità di controllo della privacy del Regno Unito si è unita ad altre autorità di regolamentazione nell'avvertire che "sintetico" non significa privo di conseguenze. Se un'immagine generata dall'intelligenza artificiale raffigura una persona identificabile senza consenso, i rischi per la privacy e la dignità persistono. Le autorità di regolamentazione sottolineano l'importanza di creare misure di salvaguardia in anticipo e di coinvolgere la supervisione piuttosto che distribuire per primi. Segnalano inoltre rischi maggiori per i minori, dove i danni possono aumentare rapidamente una volta che i contenuti si diffondono.

Cosa si nasconde dietro le pressioni esercitate dal Pentagono su Anthropic in merito all'uso militare di Claude?

Reuters riferisce che il Segretario alla Difesa degli Stati Uniti incontrerà l'amministratore delegato di Anthropic per colloqui più severi sull'uso militare di Claude. Il Pentagono vorrebbe che i principali fornitori di intelligenza artificiale rendessero i modelli disponibili su reti classificate con meno restrizioni. Anthropic si è opposta a misure di sicurezza più flessibili, indicando uno scontro sui guardrail. I rapporti sembrano tesi, sebbene entrambe le parti segnalino che i colloqui rimangono costruttivi.

Cosa è cambiato nelle note di rilascio di ChatGPT riguardo alla lunghezza del contesto della modalità "Pensieri"?

Le note di rilascio di OpenAI indicano una finestra di contesto ampliata per la modalità "Riflessione", che consente di inserire più testo in un singolo thread. In pratica, questo può essere utile con documenti lunghi, progetti complessi e ricerche in più fasi in cui i dettagli iniziali sono importanti. Si tratta di un aggiornamento di tipo idraulico, piuttosto che di una funzionalità appariscente. Il vantaggio principale è un minor numero di dettagli persi durante le sessioni più lunghe.

Notizie di ieri sull'intelligenza artificiale: 21 febbraio 2026

Trova l'ultima intelligenza artificiale nello store ufficiale di AI Assistant

Chi siamo

Torna al blog