L'Indonesia blocca l'accesso al chatbot Grok di Musk per le immagini deepfake ↗
L'Indonesia ha temporaneamente bloccato Grok dopo che è stato utilizzato per generare deepfake a sfondo sessuale non consensuale, tra cui immagini che prendevano di mira donne e bambini. Il governo ha inquadrato la questione come una questione di diritti umani e sicurezza pubblica, non come un piccolo inconveniente tecnologico.
Il punto di pressione è netto: se uno strumento può "svestire" persone reali a comando, l'onere della prova si inverte. Le piattaforme devono dimostrare di poterlo impedire, non solo promettere di starci pensando.
Elon Musk afferma che il Regno Unito vuole sopprimere la libertà di parola mentre X rischia un possibile divieto ↗
I ministri del Regno Unito hanno apertamente proposto multe - e persino il blocco di X - dopo che Grok è stato utilizzato per generare immagini sessualmente esplicite senza consenso. Musk ha reagito con la consueta formulazione della libertà di parola... ma la posizione giuridica nel Regno Unito sta scivolando da "club di dibattito" a "scadenza per la conformità"
L'Ofcom è sollecitato a muoversi rapidamente e i legislatori stanno evidenziando lo stesso triste schema: una volta che le immagini si diffondono, il danno non aspetta pazientemente un aggiornamento delle politiche.
🧑💻 Secondo quanto riferito, OpenAI sta chiedendo ai contraenti di caricare lavori reali da lavori precedenti ↗
OpenAI, insieme a un partner di dati di formazione, starebbe chiedendo ai collaboratori esterni di caricare dati reali tratti da lavori passati (e attuali): documenti, fogli di calcolo, presentazioni, repository. L'obiettivo dichiarato è valutare e migliorare gli agenti di intelligenza artificiale nelle attività di ufficio.
La parte delicata è ovvia e vagamente surreale: ai contractor viene chiesto di cancellare da soli le informazioni sensibili. È una fiducia enorme da riporre in un processo in rapida evoluzione, come chiedere a qualcuno di disinnescare una bomba con i guanti da forno, con amore.
🗂️ OpenAI chiede ai collaboratori di caricare i lavori svolti in passato per valutare le prestazioni degli agenti di intelligenza artificiale ↗
Un altro rapporto analizza la stessa situazione e spiega perché allarma gli avvocati specializzati in privacy e proprietà intellettuale. Anche se tutti agiscono in buona fede, "rimuovere i dati riservati" è un'istruzione poco chiara quando si ha a che fare con documenti aziendali reali.
Allude anche a una strategia più ampia: gli agenti di intelligenza artificiale non sono più solo dei copiloti chiacchieroni: vengono addestrati a imitare la realtà intricata e multi-file del lavoro reale. Pratico, sì. Anche un po'... accidenti.
🏦 Allianz e Anthropic stringono una partnership globale per promuovere l'intelligenza artificiale responsabile nel settore assicurativo ↗
Allianz e Anthropic hanno annunciato una partnership globale incentrata su tre aspetti: produttività dei dipendenti, automazione operativa tramite intelligenza artificiale agentica e conformità "by design". L'assicurazione è un lavoro burocratico, quindi "agentico" in questo caso significa essenzialmente automatizzare flussi di lavoro complessi senza perdere le tracce di controllo.
L'idea è: automatizzare in modo intelligente, ma conservare le ricevute. Nei settori regolamentati, è l'unico modo per scalare senza trasformarsi in una pignatta di responsabilità.
🕵️♂️ Dichiarazione in risposta a Grok AI su X ↗
L'autorità di regolamentazione della protezione dei dati del Regno Unito afferma di aver contattato X e xAI per chiedere chiarimenti su come gestiscono i dati personali e proteggono i diritti delle persone, date le preoccupazioni relative ai contenuti generati da Grok. Non si tratta solo di "moderazione dei contenuti", ma anche di verificare se i dati delle persone vengono trattati in modo lecito e se i diritti sono tutelati.
Questo è il tipo di mossa normativa che sembra educata, ma che poi diventa estremamente seria se le risposte risultano confuse... o evasive, o entrambe le cose.
Domande frequenti
Perché l'Indonesia ha bloccato l'accesso a Grok AI?
L'Indonesia ha bloccato temporaneamente Grok dopo che, secondo quanto riferito, è stato utilizzato per generare deepfake a sfondo sessuale non consensuale, tra cui immagini di donne e bambini. Le autorità hanno inquadrato la mossa come una questione di diritti umani e sicurezza pubblica, non come una piccola controversia tecnologica. Il messaggio di fondo è che "lo risolveremo più tardi" non è sufficiente quando gli strumenti possono produrre danni immediati e irreversibili.
Cosa sta pensando il Regno Unito dopo che i deepfake generati da Grok sono apparsi su X?
I ministri del Regno Unito hanno discusso pubblicamente di sanzioni e persino della possibilità di bloccare X dopo che Grok è stato utilizzato per creare immagini sessualmente esplicite senza consenso. Il tono politico e normativo si sta spostando verso un rispetto cogente, non verso un dibattito aperto. Il punto su cui i legislatori continuano a tornare è la tempistica: una volta diffuse le immagini, le vittime subiscono danni molto prima che le piattaforme pubblichino politiche aggiornate.
Cosa significa quando le autorità di regolamentazione "invertono l'onere della prova" per gli strumenti di elaborazione delle immagini basati sull'intelligenza artificiale?
L'idea del "capovolgimento dell'onere della prova" è che le piattaforme potrebbero dover dimostrare di poter prevenire danni specifici, come la generazione di immagini non consensuali di "svestizione", piuttosto che limitarsi a promettere garanzie. In pratica, questo spinge le aziende verso controlli dimostrabili, misure di applicazione misurabili e una chiara gestione degli errori. Segnala inoltre che l'"intento" conta meno dei risultati tangibili e della prevenzione ripetibile.
In che modo le piattaforme possono ridurre il rischio di deepfake non consensuali generati dall'intelligenza artificiale?
Un approccio comune è la prevenzione a più livelli: limitare richieste e output legati a persone reali, bloccare le richieste in stile "svestizione" e rilevare e bloccare i tentativi di generare immagini a sfondo sessuale senza consenso. Molte pipeline aggiungono limiti di frequenza, un monitoraggio più rigoroso dell'identità e degli abusi e flussi di lavoro di rimozione rapidi una volta che i contenuti si sono diffusi. L'obiettivo non è solo un linguaggio di policy, ma strumenti che resistano all'uso avversario.
Perché i caricamenti di documenti di lavoro reali da parte dei contractor di OpenAI stanno suscitando allarme?
Secondo alcune indiscrezioni, OpenAI (insieme a un partner per la formazione sui dati) sta chiedendo ai collaboratori esterni di caricare artefatti di lavoro reali - documenti, fogli di calcolo, deck e repository - per valutare e migliorare gli agenti di intelligenza artificiale impiegati in ufficio. Il problema è che ai collaboratori esterni venga chiesto di cancellare autonomamente i dati sensibili, il che può essere soggetto a errori. Gli avvocati specializzati in privacy e proprietà intellettuale temono che questa istruzione di "rimuovere i dati riservati" sia troppo ambigua per i materiali aziendali reali.
Qual è l'importanza della partnership tra Allianz e Anthropic per l'"intelligenza artificiale agente" nel settore assicurativo?
Allianz e Anthropic hanno descritto una partnership globale incentrata sulla produttività dei dipendenti, sull'automazione operativa tramite intelligenza artificiale agentica e sulla conformità "by design". I flussi di lavoro assicurativi sono complessi e fortemente regolamentati, quindi "agentico" spesso implica l'automazione di processi multifase senza perdere la responsabilità. L'enfasi su audit trail e "conservare le ricevute" riflette una realtà pratica: l'automazione è scalabile nei settori regolamentati solo se rimane ispezionabile e difendibile.