🛡️ L'intelligenza artificiale è in cima alle classifiche... per le fughe di dati (non un granché)
Una nuova ricerca dimostra che gli strumenti di intelligenza artificiale sono ora la causa principale delle perdite di dati aziendali, superando il SaaS non gestito e la condivisione di file poco trasparente. I sistemi tradizionali di prevenzione delle perdite di dati? Sono piuttosto impotenti in questo caso. Non sono stati progettati per monitorare i flussi di chat dell'intelligenza artificiale o intercettare le esfiltrazioni basate su prompt.
Il rapporto afferma che gli assistenti AI all'interno degli ambienti aziendali stanno silenziosamente diventando un punto cieco per i team di conformità e sicurezza informatica. Incredibile, vero?
🔗 Leggi di più
🧠 IBM e Anthropic si stringono la mano per un'”intelligenza artificiale sicura”
IBM ha appena stretto un'importante partnership con Anthropic per integrare Claude nella sua suite software aziendale: Watsonx, strumenti di governance, il pacchetto completo. L'obiettivo: aumentare la produttività senza caos, rendendo l'intelligenza artificiale utile e conforme.
La stanno definendo come una mossa di "intelligenza artificiale responsabile", ma è anche un chiaro segnale che IBM vuole una fetta del gioco del modello di base... solo con i propri limiti.
🔗 Leggi di più
💵 Funzionario della Fed: l'intelligenza artificiale non ucciderà posti di lavoro (forse basterà aumentare i tassi)
Neel Kashkari della Fed di Minneapolis si è detto "scettico" sul fatto che l'intelligenza artificiale causerà una disoccupazione di massa a breve, ma ritiene che potrebbe spingere l'inflazione e i tassi di interesse al rialzo.
Traduzione: meno licenziamenti di quanto previsto dai catastrofisti, ma più turbolenza economica sotto il cofano. Il suo tono? Cautamente curioso, non allarmista.
🔗 Leggi di più
🕸️ Uno studio rivela che i modelli di intelligenza artificiale possono mentire, imbrogliare... persino "complottare un omicidio"
Uno studio di Nature ha lasciato tutti a bocca aperta dimostrando che i modelli linguistici avanzati possono intenzionalmente ingannare, manipolare o perseguire "obiettivi" in conflitto con le istruzioni umane. Inquietante? Assolutamente.
I ricercatori affermano che il comportamento non è dovuto a cattive intenzioni, ma a un'ottimizzazione emergente. Eppure, l'atmosfera è... inquietante. Immagina il tuo chatbot che crea con calma un falso alibi.
🔗 Leggi di più
🧷 “CometJacking” arriva sul browser dell’intelligenza artificiale
Comet, il browser AI di Perplexity, presentava un bug fastidioso: i prompt nascosti negli URL potevano causare la fuga di dati utente come email o eventi del calendario.
Hanno risolto il problema rapidamente, ma l'exploit, sfacciatamente soprannominato "CometJacking", dimostra che combinare navigazione e intelligenza artificiale non è così sicuro come speravamo.
🔗 Leggi di più