🧬 DeepMind lancia AlphaGenome per individuare i fattori genetici delle malattie ↗
DeepMind ha presentato AlphaGenome, un sistema di intelligenza artificiale che mira a prevedere come le mutazioni del DNA modificano la regolazione genica: in pratica, quando i geni si attivano, dove e con quale intensità. È in grado di scansionare enormi porzioni di DNA in una sola volta, comprese le vaste regioni non codificanti che spesso sembrano materia oscura biologica.
Il punto è piuttosto diretto: identificare più rapidamente quali mutazioni siano realmente importanti per fattori come il rischio di cancro e malattie ereditarie complesse. Se funziona come promesso, i ricercatori impiegheranno meno tempo a fare supposizioni e più tempo a testare le cose giuste, il che sembra ovvio, ma è un po' il punto.
🧑💼 L'intelligenza artificiale costerà posti di lavoro, ammette Liz Kendall ↗
Il Segretario alla Tecnologia del Regno Unito ha dichiarato apertamente che l'adozione dell'intelligenza artificiale causerà perdite di posti di lavoro, non con il solito tono "andrà tutto bene, promesso". Ha sottolineato l'ansia legata ai ruoli di ingresso per laureati in settori come il diritto e la finanza, e non ha finto che ci sia un numero preciso da offrire.
Allo stesso tempo, il governo sta puntando molto sull'adattamento: un forte impegno per formare milioni di lavoratori nelle competenze di base dell'intelligenza artificiale, con l'obiettivo di rendere il Regno Unito un Paese che adotta l'intelligenza artificiale più rapidamente. È la classica tensione: sì, i posti di lavoro se ne vanno, sì, i posti di lavoro arrivano, no, non sarà facile nel mezzo.
🗞️ Il Regno Unito spinge Google a consentire ai siti di disattivare le panoramiche sull'intelligenza artificiale ↗
Le autorità di regolamentazione della concorrenza del Regno Unito hanno proposto modifiche che consentirebbero agli editori di scegliere di non far utilizzare i propri contenuti per le panoramiche di intelligenza artificiale di Google, o per addestrare modelli di intelligenza artificiale autonomi, senza essere penalizzati nei normali risultati di ricerca. La clausola "senza essere penalizzati" sta dando i suoi frutti in questo caso.
L'idea è di riequilibrare il potere, mentre i riepiloghi dell'intelligenza artificiale rimodellano il modo in cui le persone cliccano (o non cliccano). La risposta di Google è stata sostanzialmente: il comportamento di ricerca sta cambiando, stiamo valutando più controlli, ma non scomponiamo il prodotto in una versione goffamente frammentata di se stesso... il che, giusto, ma anche comodo.
🛡️ Mantenere i tuoi dati al sicuro quando un agente di intelligenza artificiale clicca su un collegamento ↗
OpenAI ha descritto in dettaglio un rischio specifico per la sicurezza degli agenti: l'esfiltrazione di dati basata su URL, in cui un aggressore inganna un'IA inducendola a caricare un URL che incorpora silenziosamente informazioni private nella stringa di query. Anche se il modello non "rivela" mai il segreto, la richiesta stessa può trapelare. Un'operazione sgradevole e disarmantemente low-tech.
La loro mitigazione è una regola semplice ma precisa: gli agenti dovrebbero recuperare automaticamente solo URL già pubblici e la cui esistenza è nota tramite un indice web indipendente. Se un link non viene verificato come pubblico, il sistema dovrebbe rallentare e restituire il controllo all'utente tramite avvisi: un attrito deliberato, ma positivo.
🇪🇺 Il prossimo capitolo dell'intelligenza artificiale nell'UE ↗
OpenAI ha pubblicato un progetto incentrato sull'UE che inquadra un problema di "eccesso di capacità": i modelli possono fare più di quanto persone e aziende li utilizzino attualmente, e questo divario rischia di generare guadagni disomogenei tra i paesi. È come possedere un'auto da corsa e guidarla solo fino al negozio dietro l'angolo... solo che il negozio dietro l'angolo rappresenta l'intera economia.
Accanto alla retorica, ci sono elementi concreti: un programma che mira a formare migliaia di PMI europee in competenze di intelligenza artificiale, un finanziamento legato alla ricerca sulla sicurezza e il benessere dei giovani e un ampliamento della strategia di "collaborazione con i governi". È in parte un promemoria politico, in parte una campagna di adozione, e sì, le due cose si confondono.
🔐 Il rischio dell'IA incontra la governance informatica: la bozza del profilo dell'IA informatica del NIST ↗
Una nuova bozza di profilo del NIST (basata sull'analisi di un articolo di uno studio legale) si concentra su come le organizzazioni dovrebbero integrare l'IA nella governance informatica, sia proteggendo i sistemi di IA stessi, sia utilizzando l'IA per migliorare la difesa informatica. Un approccio volontario sulla carta, ma "volontario" tende a diventare scontato nel tempo.
I gruppi di progetto lavorano su temi come la protezione dei componenti di intelligenza artificiale e l'implementazione di sistemi di difesa basati sull'intelligenza artificiale, incluse considerazioni sulla supply chain e sull'automazione basata su agenti nei flussi di lavoro di risposta. L'idea è: trattare l'intelligenza artificiale sia come una nuova superficie di attacco che come un nuovo set di strumenti, e non fingere che questi due aspetti si annullino.
Domande frequenti
Cos'è l'AlphaGenome di DeepMind e quale problema cerca di risolvere?
AlphaGenome è un sistema di intelligenza artificiale che, secondo DeepMind, può prevedere come le mutazioni del DNA influenzano la regolazione genica: quando i geni si attivano, dove ciò avviene e con quale intensità. È progettato per analizzare contemporaneamente tratti di DNA molto ampi, comprese le regioni non codificanti notoriamente difficili da interpretare. L'obiettivo è aiutare i ricercatori a individuare quali mutazioni hanno maggiori probabilità di causare malattie, in modo che i test di laboratorio possano concentrarsi sulle piste più promettenti.
In che modo AlphaGenome potrebbe aiutare i ricercatori a individuare più rapidamente i fattori genetici che causano le malattie?
In molti flussi di lavoro genetici, il collo di bottiglia deriva dalla riduzione di enormi elenchi di varianti alle poche che plausibilmente modificano l'attività genica. La promessa di AlphaGenome è di ridurre queste congetture prevedendo come specifiche mutazioni potrebbero alterare la regolazione in lunghe sequenze di DNA. Se queste previsioni sono valide, i team possono dare priorità agli esperimenti sulle varianti più probabilmente legate al rischio di cancro o a complesse condizioni ereditarie, perdendo meno tempo in vicoli ciechi.
L'adozione dell'intelligenza artificiale comporterà davvero una perdita di posti di lavoro nel Regno Unito? E quali sono i ruoli più a rischio?
Il Segretario alla Tecnologia del Regno Unito, Liz Kendall, ha affermato che l'adozione dell'IA causerà perdite di posti di lavoro e ha evidenziato l'ansia legata ai ruoli di ingresso per i laureati. Ha sottolineato in particolare settori come il diritto e la finanza, dove le attività iniziali di carriera potrebbero essere più automatizzabili. Allo stesso tempo, il governo sta enfatizzando l'adattamento attraverso una formazione su larga scala nelle competenze di base dell'IA, riconoscendo che la transizione potrebbe apparire disomogenea anche se emergessero nuovi ruoli.
Gli editori del Regno Unito possono rinunciare alle panoramiche AI di Google senza perdere posizioni nei risultati di ricerca?
Le autorità di regolamentazione della concorrenza del Regno Unito hanno proposto modifiche che consentirebbero agli editori di scegliere di non far utilizzare i propri contenuti per le panoramiche di intelligenza artificiale di Google, o per addestrare modelli di intelligenza artificiale autonomi, senza essere penalizzati nelle classifiche di ricerca standard. L'obiettivo è riequilibrare il potere, poiché i riepiloghi di intelligenza artificiale modificano il comportamento dei clic. Google ha segnalato che sta valutando maggiori controlli, mettendo in guardia contro un'esperienza di ricerca frammentata.
Come può un agente di intelligenza artificiale divulgare dati privati semplicemente cliccando su un link?
OpenAI ha descritto un rischio di esfiltrazione di dati basato su URL in cui un aggressore richiede a un agente di intelligenza artificiale di recuperare un collegamento che incorpora silenziosamente informazioni sensibili nella stringa di query. Anche se il modello non ripete mai il segreto nel suo output, la richiesta stessa può trasmetterlo. Una mitigazione comune consiste nell'aggiungere "frizioni deliberate", come avvisi e richiedere la conferma dell'utente quando un collegamento non è verificato in modo indipendente come pubblico.
Che cos'è la bozza del profilo Cyber AI del NIST e in che modo cambia la governance informatica?
Una bozza di profilo del NIST (discussa tramite un'analisi legale) inquadra l'IA sia come qualcosa da proteggere sia come qualcosa da utilizzare nella difesa informatica. Raggruppa il lavoro in temi come la protezione dei componenti dell'IA, la gestione dei rischi della supply chain e l'implementazione di difese basate sull'IA, inclusi flussi di lavoro di risposta più automatizzati e simili ad agenti. Sebbene nominalmente volontari, framework come questo spesso diventano aspettative di fatto, spingendo le organizzazioni a mappare formalmente l'IA nella governance e nei controlli.