🧒 OpenAI lancia la previsione dell'età su ChatGPT ↗
OpenAI ha iniziato a implementare un livello di "previsione dell'età" all'interno di ChatGPT: un sistema silenzioso che cerca di dedurre quando un account appartiene probabilmente a un minore, attivando poi ulteriori misure di sicurezza. Se ritiene che tu abbia meno di 18 anni, limita automaticamente l'accesso ai contenuti più sensibili.
Quando sbaglia (e... a volte capita), il rimedio è la verifica dell'identità tramite Persona, utilizzando un flusso basato sui selfie. Si innesta anche in cambiamenti più ampi della piattaforma, come esperimenti di "modalità adulto" e mosse di monetizzazione che, francamente, sembrano più piatti che girano contemporaneamente.
🏦 La Gran Bretagna ha bisogno di "stress test di intelligenza artificiale" per i servizi finanziari, affermano i legislatori ↗
I legislatori del Regno Unito stanno sostanzialmente dicendo: smettetela di essere superficiali sull'intelligenza artificiale in ambito finanziario. La loro argomentazione è che le autorità di regolamentazione e il governo dovrebbero sottoporre i sistemi di intelligenza artificiale a test di pressione, più simili a quelli che si sottopongono a stress test per le banche, perché gli "ops" nel mondo del denaro tendono a propagarsi rapidamente.
La preoccupazione è il tipo di problema che si manifesta solo su larga scala: pregiudizi, cascate di errori, modelli di frode, circoli viziosi. È come lasciare che un bambino piccolo guidi un autobus perché la strada è dritta... finché all'improvviso non lo è più.
🏛️ Nominati i campioni dell'intelligenza artificiale per aiutare la città a cogliere in sicurezza le opportunità dell'intelligenza artificiale ↗
Il governo del Regno Unito ha nominato due "AI Champions" per accelerare l'adozione dell'intelligenza artificiale nei servizi finanziari, con le consuete promesse di crescita, produttività, investimenti e tutto quel ben di dio.
Ciò che colpisce è l'equilibrio: l'energia del "muoversi velocemente", con la scritta "in sicurezza" stampata sopra. Rassicurante... o leggermente comico, a seconda dell'umore del giorno.
💰 Humans&, una startup di intelligenza artificiale "incentrata sull'uomo" fondata da ex studenti di Anthropic, xAI e Google, ha raccolto 480 milioni di dollari in un round di finanziamento iniziale ↗
Humans& si è presentata con un enorme finanziamento iniziale e un team che si potrebbe definire "il pacchetto base per un laboratorio di intelligenza artificiale": persone provenienti da importanti negozi di modellismo e grandi aziende tecnologiche. L'obiettivo dichiarato è meno quello di un chatbot e più quello di "aiutare gli esseri umani a coordinarsi e collaborare", con sistemi in grado di operare sia tra persone che con agenti di intelligenza artificiale.
Sono un sacco di soldi per qualcosa di ancora in fase iniziale, il che è un segnale che il mercato è fiducioso... o che stiamo tutti comprando fuochi d'artificio perché ci piace il suono. Onestamente, potrebbero essere entrambe le cose.
⚖️ La startup di intelligenza artificiale legale Ivo raccoglie 55 milioni di dollari nell'ultimo round di finanziamento ↗
La startup di intelligenza artificiale legale Ivo ha ottenuto nuovi finanziamenti per sviluppare la sua piattaforma e incrementare le vendite, cavalcando l'onda degli studi legali e dei team legali interni che automatizzano i flussi di lavoro ricchi di documenti cartacei.
Questa categoria continua a vincere perché il valore è semplice e diretto: meno ore spese in lavoro documentale ripetitivo, meno cose che passano inosservate. Non è un granché, ma è molto, molto fatturabile.
🧠 La taiwanese Inventec afferma che la decisione sul chip H200 di Nvidia "sembra essere bloccata" dalla parte cinese ↗
Un produttore di server taiwanese ha affermato che la questione della vendita del chip AI H200 di Nvidia in Cina sembra "bloccata", il che implica che il collo di bottiglia non sia dovuto solo a regole esterne, ma anche ad approvazioni da parte cinese o a dinamiche interne.
Questa è la realtà poco attraente dell'hardware AI: tutti parlano di modelli e agenti, ma l'intero futuro può dipendere da qualche strozzatura, permessi e politiche della catena di approvvigionamento. È come pianificare il lancio di un razzo... e poi rendersi conto di aver dimenticato la chiave della valvola del carburante.
Domande frequenti
Qual è la previsione dell'età di OpenAI su ChatGPT e cosa cambia se vieni segnalato come minorenne?
OpenAI ha introdotto un livello di "previsione dell'età" di basso profilo che tenta di dedurre se un account appartenga probabilmente a un minore. Se il sistema conclude che hai meno di 18 anni, ChatGPT applica automaticamente ulteriori misure di sicurezza. In pratica, questo di solito si traduce in limiti più severi sui contenuti considerati più sensibili. L'obiettivo è ridurre il rischio senza obbligare ogni utente a dichiarare la propria età in anticipo.
Cosa succede se la previsione dell'età di ChatGPT è errata?
Se la previsione dell'età su ChatGPT fallisce e classifica un adulto come minorenne, la soluzione indicata è la verifica dell'identità. In questa implementazione, tale verifica viene gestita tramite Persona utilizzando un flusso basato sui selfie. Dopo la verifica, l'account può tornare all'accesso normale anziché rimanere bloccato dietro barriere di sicurezza più rigide. È un compromesso: meno casi limite rischiosi, con maggiore attrito quando il sistema indovina in modo errato.
In che modo la verifica dei selfie di Persona si inserisce nell'approccio alla sicurezza di OpenAI?
La persona funge da meccanismo per risolvere l'incertezza legata all'età quando l'inferenza del sistema viene considerata inaffidabile. Il flusso di verifica dell'identità basato sui selfie è considerato un passaggio correttivo in caso di previsione errata dell'età. Su molte piattaforme, questo tipo di passaggio viene utilizzato per bilanciare sicurezza e accesso senza bloccare in modo permanente gli utenti legittimi. Indica inoltre una maggiore applicazione delle misure a livello di account, non solo un filtraggio a livello di prompt.
Perché OpenAI sta aggiungendo ora un limite di età e cosa c'entra con la "modalità adulto"?
Questo aggiornamento arriva insieme a cambiamenti più ampi della piattaforma, tra cui esperimenti sulla "modalità per adulti" e iniziative di monetizzazione menzionate nella stessa discussione. La previsione dell'età su ChatGPT diventa di fatto l'interruttore che determina chi riceve impostazioni predefinite più restrittive rispetto a chi ha un accesso più ampio. Questo è utile per una piattaforma che testa esperienze diverse per diversi tipi di pubblico. Può anche limitare l'esposizione a contenuti più rischiosi, consentendo comunque l'espansione altrove.
Cosa sono gli “stress test dell’intelligenza artificiale” per i servizi finanziari del Regno Unito e perché i legislatori li vogliono?
I legislatori del Regno Unito chiedono "stress test sull'intelligenza artificiale" che trattino i sistemi di intelligenza artificiale più come banche: sottoponendoli a test di pressione prima che i problemi si diffondano. La preoccupazione è che pregiudizi, cascate di errori, modelli di frode e circoli viziosi di feedback possano diventare visibili solo su larga scala. In finanza, piccoli fallimenti possono propagarsi rapidamente attraverso sistemi strettamente interconnessi. Gli stress test hanno lo scopo di far emergere le debolezze prima che ne risentano denaro e clienti reali.
Chi sono i "Campioni dell'intelligenza artificiale" del Regno Unito per la città e cosa dovrebbero fare?
Il governo del Regno Unito ha nominato due "AI Champions" per contribuire ad accelerare l'adozione dell'IA nei servizi finanziari. Il loro ruolo è strutturato come quello di aiutare la City a cogliere le opportunità dell'IA, facendolo "in sicurezza". In pratica, si tratta di coordinamento e advocacy: incoraggiare l'adozione, supportare le migliori pratiche e allineare le parti interessate. Questo dimostra che il governo desidera un'implementazione più rapida, con un evidente livello di sicurezza.