Notizie sull'intelligenza artificiale del 15 febbraio 2026

Riepilogo delle notizie sull'intelligenza artificiale: 15 febbraio 2026

🦞 Il fondatore di OpenClaw, Steinberger, si unisce a OpenAI, il bot open source diventa fondazione

Peter Steinberger si sta dirigendo verso OpenAI per promuovere gli "agenti personali", mentre OpenClaw stesso viene inserito in una fondazione in modo da rimanere open source (e supportato). Questa divisione è... piuttosto intelligente: assumere il costruttore, mantenere il progetto pubblico.

Il discorso di OpenClaw è piacevolmente pratico: smistamento delle email, pratiche assicurative, check-in dei voli, le noiose attività amministrative quotidiane. È anche esploso su GitHub, e questa popolarità ha suscitato preoccupazioni in termini di sicurezza, soprattutto se utilizzato in modo non appropriato.

🪖 Il Pentagono "stufo" della reazione di Anthropic all'uso del modello di intelligenza artificiale di Claude da parte dei militari, potrebbe interrompere i rapporti, afferma un rapporto

Il nocciolo della questione: il Pentagono vuole un accesso ampio e "per tutti gli scopi legittimi", e Anthropic sta ancora cercando di mantenere rigidi limiti alle armi completamente autonome e alla sorveglianza di massa. Questo è il tipo di disaccordo che suona filosofico finché qualcuno non dice: "Potremmo sostituirti"

Un aspetto sottovalutato: i funzionari non vogliono che il modello blocchi improvvisamente i flussi di lavoro a metà, e non vogliono negoziare per sempre sui casi limite (giusto... ma anche bleah). C'è una vera e propria tensione su "chi ha le chiavi in ​​mano", e non è sottile.

🧠 Startup che costruisce un modello per prevedere il comportamento umano

Simile ha raccolto 100 milioni di dollari per sviluppare un modello di "apprendimento limitato" volto a prevedere cosa potrebbero fare le persone, incluso, in modo molto specifico, anticipare le probabili domande in eventi come le conference call sugli utili. Obiettivo ristretto, grande ambizione, una combinazione un po' inquietante.

L'approccio si basa su interviste con persone reali e dati di ricerca comportamentale, per poi eseguire simulazioni con agenti di intelligenza artificiale pensati per rispecchiare le preferenze reali. È come creare un modello meteorologico per le decisioni umane... il che sembra impossibile finché non lo è.

🧑⚖️ Scoop: la Casa Bianca fa pressione sul legislatore dello Utah affinché bocci il disegno di legge sulla trasparenza dell'intelligenza artificiale

La spinta alla trasparenza dell'intelligenza artificiale a livello statale nello Utah sta ricevendo critiche dirette dalla Casa Bianca, con i funzionari che esortano il promotore del disegno di legge a non portarlo avanti. La struttura del disegno di legge è incentrata sulla trasparenza e sulla sicurezza dei bambini: difficile da contestare solo a livello puramente estetico.

Ma la lotta più grande è quella giurisdizionale: chi stabilisce le regole, gli stati o il governo federale. E sì, è un intrigo, come due persone che afferrano lo stesso volante e insistono nel dire di essere quelle calme.

🎬 ByteDance si impegna a impedire l'uso non autorizzato di IP sullo strumento video AI dopo la minaccia della Disney

Disney ha inviato un'ingiunzione di cessazione e desistenza sul generatore video basato sull'intelligenza artificiale di ByteDance, e ByteDance afferma di star rafforzando le misure di sicurezza per impedire l'uso non autorizzato di proprietà intellettuale e immagini. La denuncia, a quanto pare, riguarda il fatto che lo strumento possa riprodurre personaggi noti del franchise come se fossero solo... adesivi di pubblico dominio.

È la collisione che tutti si aspettavano: gli strumenti di intelligenza artificiale per i video virali si muovono rapidamente, gli studi cinematografici si muovono in contenziosi legali e "aggiungeremo misure di sicurezza" diventa la formula di scuse predefinita. In un colpo di scena, la tecnologia sembra magia, e l'aspetto legale sembra gravità.

Domande frequenti

Cosa significa che il fondatore di OpenClaw si è unito a OpenAI mentre OpenClaw si è trasferito in una fondazione?

Segnala una frattura tra chi costruisce "agenti personali" e il progetto che rimane governato pubblicamente. L'adesione di Steinberger a OpenAI suggerisce che si concentrerà sullo sviluppo di prodotti basati su agenti. L'inserimento di OpenClaw in una fondazione mira a mantenerlo open source e supportato in modo sostenibile. In pratica, l'iniziativa mira a preservare la fiducia della comunità, mentre chi lo costruisce si muove dove si trovano le risorse.

Perché gli agenti di intelligenza artificiale in stile OpenClaw si concentrano su attività come la posta elettronica e la burocrazia?

Poiché il lavoro di "amministrazione della vita" è ripetitivo, basato su regole e richiede molto tempo, è un obiettivo pratico per l'automazione. Gli esempi qui riportati - triage delle email, pratiche assicurative e check-in dei voli - sono attività specifiche con chiari criteri di successo. Questa attenzione può far sentire gli agenti preziosi prima di assistenti più aperti. Sottolinea inoltre l'importanza di controlli di accesso accurati quando gli agenti gestiscono account personali.

Come è possibile implementare un agente di intelligenza artificiale open source come OpenClaw senza creare problemi di sicurezza?

Trattatelo come un software in grado di visualizzare dati sensibili, non come uno script giocattolo. Un approccio comune consiste nel bloccare le credenziali, limitare le autorizzazioni al minimo necessario e conservare log e audit trail. Eseguitelo in un ambiente vincolato e separatelo dai sistemi di alto valore. Molte preoccupazioni in materia di sicurezza derivano da un'implementazione poco attenta, soprattutto quando endpoint o token vengono esposti senza solide misure di sicurezza.

Perché il Pentagono non è soddisfatto delle restrizioni imposte da Anthropic su Claude per uso militare?

La disputa si concentra su portata e controllo: il Pentagono vuole un ampio accesso "per tutti gli scopi legittimi", mentre Anthropic è descritta come un sistema che impone rigidi limiti alle armi completamente autonome e alla sorveglianza di massa. I funzionari non vogliono inoltre che i modelli blocchino i flussi di lavoro a metà o richiedano infinite negoziazioni sui casi limite. Questa tensione è meno astratta di quanto sembri: riguarda chi decide cosa può fare il modello nelle operazioni reali.

In che modo le startup cercano di prevedere il comportamento umano tramite l'intelligenza artificiale e perché questa idea è controversa?

L'esempio qui, Simile, sta perseguendo un modello di "apprendimento limitato" volto a prevedere cosa potrebbero fare le persone, inclusa l'anticipazione di domande probabili in contesti come le conference call sugli utili. L'approccio descritto combina interviste con dati di ricerca comportamentale e simulazioni che utilizzano agenti di intelligenza artificiale pensati per rispecchiare le preferenze reali. Sembra inquietante perché sposta l'intelligenza artificiale dal rispondere alle persone al prevederle. La sfida è mantenere le affermazioni circoscritte ed evitare un eccesso di sicurezza.

Cosa succede quando gli strumenti video di intelligenza artificiale generano personaggi protetti da copyright, come nello scontro tra ByteDance e Disney?

Lo schema riportato è familiare: uno studio emette un ordine di cessazione e desistenza e la piattaforma risponde rafforzando le misure di sicurezza per impedire l'uso non autorizzato di IP o immagini. In molti strumenti, le misure di sicurezza si traducono in filtri di contenuto più rigorosi, un migliore rilevamento dei personaggi riconoscibili e un'applicazione più chiara delle policy utente. Il conflitto di fondo è tra velocità e responsabilità: la generazione virale procede rapidamente e l'applicazione dei diritti agisce come la gravità. Aspettatevi un aumento di queste collisioni con la diffusione dei generatori video.

Notizie di ieri sull'intelligenza artificiale: 13 febbraio 2026

Trova l'ultima intelligenza artificiale nello store ufficiale di AI Assistant

Chi siamo

Torna al blog