Notizie sull'intelligenza artificiale 18 gennaio 2026

Riepilogo delle notizie sull'intelligenza artificiale: 18 gennaio 2026

💰 Sequoia si lancia silenziosamente nel mega-round di Anthropic

Sequoia, già coinvolta in diversi importanti laboratori di intelligenza artificiale, si unirebbe a un gigantesco aumento di capitale da parte di Anthropic. È il tipo di mossa che fa salire di un livello l'intera discussione sul "conflitti, niente conflitti", che qualcuno lo ammetta o meno.

Si dice che il round includa anche altri titoli di peso, spingendo Anthropic ancora più in alto, verso la fascia alta delle mega-valutazioni. L'atmosfera da bolla persiste. Questa potrebbe anche essere la nuova normalità, purtroppo.

📢 ChatGPT inizia a flirtare con le pubblicità, questa volta davvero

Si dice che OpenAI stia testando la pubblicità per alcuni utenti statunitensi su livelli di prezzo più bassi, mentre i livelli a pagamento più elevati rimarranno privi di pubblicità. La promessa è che la pubblicità non influenzerà le risposte: rassicurante in teoria, anche se il riflesso di fiducia subisce un piccolo sussulto.

Il sottinteso più ampio è semplice: l'inferenza è costosa e gli abbonamenti da soli potrebbero non coprire tutto per sempre... o almeno così sembra. Eppure, la prima volta che vedi la parola "sponsorizzato" vicino a un chatbot, qualcosa cambia nella tua testa. L'atmosfera cambia.

📚 Gli editori cercano di aggredire la causa di Google sulla formazione dell'intelligenza artificiale

Un gruppo di editori sta cercando di unirsi a una causa che accusa Google di utilizzare opere protette da copyright per addestrare i suoi sistemi di intelligenza artificiale. Questa battaglia legale continua ad allargarsi, come una crepa nel ghiaccio che continui a sentire ma non riesci a localizzare.

Se il tribunale li ammettesse, la questione potrebbe complicarsi ulteriormente, concentrandosi sul significato di "autorizzazione" e "pagamento" per i dati di addestramento. Tutti vogliono un precedente, preferibilmente uno a loro favore, ovviamente.

🕳️ Un trucco di "iniezione immediata" avrebbe creato problemi ai Gemelli tramite i dati degli incontri

I ricercatori hanno descritto un attacco in stile "iniezione indiretta di prompt" in cui istruzioni dannose vengono nascoste all'interno di contenuti apparentemente normali, per poi essere seguite da un assistente quando l'utente chiede qualcosa di innocente. Nessun malware, nessuna magia: solo testo manipolato, stranamente elegante e anche un po' disgustoso.

Ci ricorda che "LLM legge testo non attendibile" non è una funzione carina, ma una vera e propria minaccia. Come lasciare che degli sconosciuti ti infilino bigliettini in tasca tutto il giorno, per poi fingere di essere sorpreso quando uno di loro si rivela una trappola.

🎮 Il CEO di Razer afferma che i giocatori "apprezzano già l'intelligenza artificiale", ma odiano l'etichetta

Il discorso di Razer al CES si è concentrato sull'intelligenza artificiale come strumento pratico per i flussi di lavoro di sviluppo dei videogiochi (QA, iterazione e cose del genere), oltre ad alcuni concetti di assistenza che sembrano per metà utili e per metà fantascientifici.

Stanno anche sostanzialmente ammettendo il problema del branding: i giocatori non vogliono "IA inutile", ma vogliono strumenti più intelligenti ed esperienze più fluide. Chiamatela "assistenza" e la gente annuirà. Chiamatela "IA" e la gente prenderà in mano i forconi... a volte.

⚖️ Un tribunale stabilisce le regole per gli avvocati che utilizzano l'intelligenza artificiale generativa

Un tribunale ha pubblicato una guida che sostanzialmente si riduce a questo: certo, usa genAI, ma il lavoro rimane di tua proprietà. Non puoi esternalizzare il tuo giudizio professionale a un generatore di testo e poi fingere di essere scioccato quando questo inventa qualcosa con sicurezza.

È interessante notare che la divulgazione non è obbligatoria a meno che non venga richiesta da un giudice, ma il messaggio di responsabilità è la vera spina dorsale. L'intelligenza artificiale può redigere e riordinare... e anche avere allucinazioni come uno stagista troppo sicuro di sé con un debole per la narrativa.

Domande frequenti

Cosa significa per gli investimenti e i conflitti nell'intelligenza artificiale l'adesione di Sequoia al mega-round di Anthropic?

Ciò suggerisce che i principali investitori potrebbero continuare a sostenere contemporaneamente più importanti laboratori di intelligenza artificiale, il che, prevedibilmente, riaccende il dibattito sul "conflitto, non conflitto". Quando lo stesso fondo è coinvolto in più laboratori, si inizia a valutare attentamente incentivi, accesso e vantaggi competitivi. Il mega-round segnalato sottolinea anche la tendenza verso assegni enormi e valutazioni vertiginose, nonostante l'aria di "bolla" sia ancora presente.

ChatGPT riceve annunci pubblicitari sui livelli gratuiti o a basso costo? Influiranno sulle risposte?

Il rapporto afferma che OpenAI sta testando annunci pubblicitari per alcuni utenti statunitensi su livelli di prezzo più bassi, mentre i livelli a pagamento più elevati rimangono privi di pubblicità. Afferma inoltre che gli annunci pubblicitari non influenzeranno le risposte, il che sembra rassicurante sulla carta, ma può comunque modificare il modo in cui le persone percepiscono la fiducia. Il sottotesto è economico: l'inferenza è costosa e gli abbonamenti potrebbero non coprire tutto per sempre.

Perché gli editori stanno cercando di unirsi alla causa di Google sulla formazione in ambito AI?

Un gruppo di editori sta cercando di unirsi a una causa legale secondo cui Google avrebbe utilizzato opere protette da copyright per addestrare sistemi di intelligenza artificiale. Se il tribunale li accogliesse, la causa potrebbe inasprirsi ulteriormente su cosa dovrebbero essere "permesso" e "pagamento" per i dati di addestramento. Più parti implicano spesso maggiore pressione per un precedente chiaro, soprattutto su chi riceve un compenso e a quali condizioni.

Cos'è un attacco "indirect prompt injection" e perché è così importante nelle notizie sulla tecnologia dell'intelligenza artificiale?

Si tratta di un attacco in cui istruzioni dannose vengono nascoste all'interno di contenuti apparentemente normali, e un assistente le segue in seguito quando un utente effettua una richiesta innocente. Il problema principale è che il modello legge testo non attendibile, trasformando documenti e messaggi di uso quotidiano in una potenziale superficie di minaccia. È interessante perché può funzionare senza malware tradizionali, ma solo con linguaggio usato come arma e incorporato nei contenuti.

Perché i giocatori non amano l'etichetta "IA" ma desiderano comunque strumenti di IA?

Il CEO di Razer sostiene che i gamer apprezzano già i vantaggi pratici – controllo qualità più rapido, iterazioni più fluide e strumenti di supporto al flusso di lavoro – ma reagiscono negativamente al branding. La preoccupazione è spesso rivolta alla "scarsa intelligenza artificiale", ovvero a contenuti che sembrano poco impegnativi e poco autentici. Riformularlo come "assistenza" o una funzionalità di utilità può farlo percepire come uno strumento che migliora l'esperienza piuttosto che sostituire la creatività.

Cosa significano le norme del tribunale per gli avvocati che utilizzano l'intelligenza artificiale generativa? Sono tenuti a renderle pubbliche?

Le linee guida descritte sono semplici: gli avvocati possono utilizzare l'intelligenza artificiale generativa, ma rimangono responsabili del lavoro svolto e non possono esternalizzare il giudizio professionale a un generatore di testo. Il rischio è l'allucinazione - fatti o citazioni inventati con sicurezza - quindi la verifica e la responsabilità rimangono centrali. A quanto pare, la divulgazione non è obbligatoria a meno che non venga richiesta da un giudice, ma il messaggio è comunque: il risultato è di tua proprietà.

Notizie di ieri sull'intelligenza artificiale: 17 gennaio 2026

Trova l'ultima intelligenza artificiale nello store ufficiale di AI Assistant

Chi siamo

Torna al blog