🧑⚖️ Gli autori trascinano xAI, OpenAI, Google e altri in una nuova battaglia legale sul diritto d'autore
John Carreyrou (quello di Theranos) e altri cinque scrittori hanno intentato una causa contro un gruppo di aziende specializzate in intelligenza artificiale, sostenendo che i loro libri sono stati utilizzati, senza autorizzazione, per addestrare dei chatbot.
Non si tratta nemmeno di un'azione collettiva, e questo fa parte della strategia. Gli autori sostengono che le azioni collettive tendono a concludersi con accordi extragiudiziali in cui i singoli autori ottengono... solo le briciole, quindi hanno scelto una strada che permette loro di agire con maggiore determinazione.
Inoltre, citano come esempio i precedenti accordi extragiudiziali legati ai libri nel mondo dell'IA, un chiaro segnale del tipo "ecco perché lo facciamo in modo diverso".
🔗 Leggi di più
⚡ Alphabet va alla ricerca di energia pulita, perché l'intelligenza artificiale consuma molta elettricità
Alphabet ha raggiunto un accordo per l'acquisizione di Intersect, società sviluppatrice di soluzioni per l'energia pulita, per una cifra di circa 4,75 miliardi di dollari (in contanti e con l'assunzione del debito), inserendosi perfettamente nella corsa all'accaparramento di capacità energetica in un contesto di proliferazione dei data center.
Il sottotesto rimane chiaro: l'addestramento dei modelli e l'inferenza continua non richiedono solo chip, ma anche una quantità spropositata di energia elettrica costante. La "strategia per l'IA" continua a scivolare nella "strategia energetica", che sa molto di... rivoluzione industriale, solo che con le GPU.
Alcune risorse operative si trovano al di fuori della struttura, ma Alphabet ha segnalato progetti come i grandi sistemi di archiviazione posizionati vicino ai campus dei data center di Google: una sorta di implementazione "collega direttamente alla bestia".
🔗 Leggi di più
🕵️ OpenAI afferma che l'iniezione di prompt per gli agenti potrebbe non morire mai del tutto
OpenAI sostiene che l'iniezione di prompt per gli agenti in stile browser potrebbe essere un problema irrisolvibile, più simile allo spam o al phishing che a qualcosa che si "risolve" una volta per tutte. Non è rassicurante, ma è sorprendentemente schietto.
Hanno descritto l'invio di aggiornamenti di sicurezza a ChatGPT Atlas, tra cui un modello di agente addestrato in modo avversario e misure di sicurezza più rigorose, dopo che un'attività interna automatizzata di red teaming ha portato alla luce una nuova classe di attacchi.
Il manuale di istruzioni implicito recita: "test di pressione costante, patch rapide, ripetere". Come insegnare al tuo cane da guardia a riconoscere un nuovo travestimento ogni settimana... solo che il travestimento è semplicemente del testo su una pagina web.
🔗 Leggi di più
🎮 Gli Indie Game Awards ritirano i premi per l'uso dell'IA generativa
Gli Indie Game Awards hanno ritirato i premi Gioco dell'Anno e Miglior Gioco d'Esordio a Clair Obscur: Expedition 33 dopo che è emerso che durante lo sviluppo è stata utilizzata l'intelligenza artificiale generativa, nonostante un precedente accordo che escludeva tale utilizzo. Che peccato.
Nonostante gli sviluppatori avessero a quanto pare rimosso gli elementi in questione con una patch, la commissione giudicatrice ha mantenuto una rigida politica di ineleggibilità e ha riassegnato il premio Gioco dell'Anno a Blue Prince (con l'editore che ha pubblicamente sottolineato "niente IA").
Hanno anche ritirato un premio Indie Vanguard legato a Chantey a causa della sua associazione con ModRetro (e, indirettamente, con Anduril). Quindi non si tratta solo di "IA o no", ma anche di "con chi sei allineato"... o almeno così sembra.
🔗 Leggi di più
🏛️ L'ordine esecutivo di Trump mira a bloccare le normative statali sull'IA
Un nuovo decreto esecutivo definisce un quadro normativo nazionale sull'intelligenza artificiale con l'obiettivo dichiarato di rafforzare il "dominio" degli Stati Uniti in questo campo, mantenendo al contempo gli oneri normativi "al minimo". Questa formulazione ha un peso considerevole.
Un segnale importante è la sensazione di prelazione: viene presentata come un modo per evitare un mosaico di normative statali sull'IA diverse da stato a stato, soprattutto dopo che i tentativi di prelazione federale in altri stati non hanno avuto successo.
Se distribuisci prodotti basati sull'intelligenza artificiale in tutto il paese, l'idea probabilmente ti sembrerà elegante. Se invece sei uno stato che cerca di regolamentare più velocemente di Washington, probabilmente ti sembrerà un ostacolo. Semplice, ma allo stesso tempo non semplice.
🔗 Leggi di più