🏗️ Gli Stati Uniti spingono le aziende verso un nuovo “compatto” di data center AI, riporta Politico ↗
Secondo quanto riferito, gli Stati Uniti stanno cercando di convincere le grandi aziende a sottoscrivere un nuovo "patto" per i data center di intelligenza artificiale, in sostanza un insieme di impegni su come gestire queste enormi capacità di elaborazione.
I dettagli sono ancora un po' confusi (un classico), ma la direzione sembra familiare: standardizzare le aspettative in materia di energia, sicurezza e, possibilmente, anche di rendicontazione, una versione politica cortese del "per favore, non lasciate che questo diventi un disastro"
🎬 Google citata in giudizio da Autodesk per un software di creazione di film basato sull'intelligenza artificiale ↗
Autodesk ha fatto causa a Google per il nome "Flow", sostenendo di averlo già utilizzato per il software di gestione della produzione e degli effetti visivi, e che lo strumento di Google per la realizzazione di film con intelligenza artificiale era arrivato con lo stesso marchio.
Il dettaglio più incisivo è l'accusa secondo cui Google avrebbe inizialmente dichiarato di non voler commercializzare il nome... per poi procedere comunque con la registrazione dei marchi. È una battaglia per i marchi, certo, ma porta con sé anche l'energia tipica di una "grande piattaforma contro un produttore di utensili specializzato" su piccola scala.
🏥 L'intelligenza artificiale non è migliore di altri metodi per i pazienti che cercano consigli medici, dimostra uno studio ↗
Un nuovo studio ha scoperto che l'utilizzo dell'intelligenza artificiale per la consulenza medica ai pazienti non ha avuto risultati migliori rispetto ad altri approcci, il che non sorprende ed è leggermente rassicurante, a seconda di quanto attentamente si siano guardati con sospetto i sistemi di controllo dei sintomi.
Ciò non significa che l'intelligenza artificiale sia inutile in ambito sanitario, ma semplicemente che "chiedi a un bot" non rappresenta automaticamente un miglioramento rispetto alle opzioni esistenti, soprattutto quando l'accuratezza e la sicurezza sono fondamentali.
🩺 App e bot basati sull'intelligenza artificiale stanno facendo irruzione nella medicina. I medici hanno domande. ↗
Un'indagine analizza il modo in cui le app di intelligenza artificiale per la salute e i chatbot si stanno diffondendo negli spazi clinici, a volte più velocemente di quanto possano tenere il passo le linee guida, la supervisione o le semplici prove.
I medici sollevano preoccupazioni circa l'affidabilità, i danni ai pazienti e chi è responsabile quando un bot fornisce consigli che sembrano sicuri ma sbagliati... come un navigatore satellitare che insiste affinché si guidi in un lago, ma con i farmaci in mano.
📈 Il CEO di OpenAI afferma che ChatGPT è tornato a crescere di oltre il 10% al mese, riporta CNBC ↗
Secondo quanto riferito, il CEO di OpenAI ha affermato che ChatGPT è tornato a crescere di oltre il 10% al mese, il che è un grosso problema se si presume che la fase "l'hanno già provato tutti" abbia raggiunto il suo apice.
Ciò suggerisce che o i nuovi utenti continuano ad arrivare, o che gli utenti esistenti stanno trovando più motivi per restare, o entrambe le cose. In entrambi i casi, il prodotto si sta comportando meno come una moda passeggera e più come un'infrastruttura... o almeno così sembra.
Domande frequenti
In cosa consiste il “compatto” sui data center AI proposto dagli Stati Uniti?
Viene descritto come un insieme di impegni che le grandi aziende accetterebbero quando costruiscono o gestiscono grandi data center di intelligenza artificiale. L'intento è quello di standardizzare le aspettative in modo che questi enormi progetti di elaborazione non diventino dispersivi o incoerenti tra le aziende. Sebbene i dettagli sembrino ancora incerti, l'enfasi sembra concentrarsi su aspetti pratici: consumo energetico, sicurezza e, possibilmente, qualche forma di reporting.
Perché gli Stati Uniti vorrebbero che le aziende firmassero un patto sui data center basati sull'intelligenza artificiale?
Un patto può stabilire aspettative di base condivise senza costringere i legislatori a redigere una nuova norma per ogni caso limite. Con la rapida espansione dei data center basati sull'intelligenza artificiale, i responsabili politici spesso si preoccupano dell'impatto sulla rete, dei rischi per la sicurezza e della trasparenza operativa. Una strategia comune è quella di allineare tempestivamente i principali attori, in modo che le buone pratiche si diffondano più rapidamente e sia più facile tracciare le responsabilità in caso di problemi.
Quali tipi di impegni potrebbero essere inclusi in un patto sui data center basati sull'intelligenza artificiale?
Sulla base di quanto proposto, gli impegni potrebbero riguardare la pianificazione energetica (come l'energia viene approvvigionata e gestita), le misure di sicurezza (fisica e informatica) e qualche forma di reporting o informativa. In molti progetti, il reporting diventa il livello "enforcement-light" che rende gli standard leggibili e misurabili. Se il patto è volontario, tali impegni potrebbero essere formulati come linee guida che in seguito contribuiranno a definire la regolamentazione.
Di cosa si tratta nella causa contro lo strumento di intelligenza artificiale di Google per la creazione di film chiamato "Flow"?
Autodesk ha intentato causa a Google per il nome "Flow", sostenendo che Autodesk lo utilizzava già per software di gestione di produzione e VFX. La controversia è inquadrata come un conflitto di marchi e branding, insieme all'accusa secondo cui Google avrebbe precedentemente dichiarato di non voler commercializzare il nome, ma in seguito avrebbe comunque cercato di registrarne i marchi. Questi casi spesso ruotano attorno alla priorità del marchio e alla probabilità di confusione.
Cosa significa che l'intelligenza artificiale non è migliore di altri metodi per fornire consulenza medica ai pazienti?
Suggerisce che "chiedi a un bot" non sia automaticamente più accurato o più sicuro dei metodi esistenti con cui i pazienti cercano assistenza. Questo può essere rassicurante se si è preoccupati per le risposte troppo sicure fornite da strumenti di controllo dei sintomi o chatbot. Non esclude il potenziale valore dell'IA in ambito sanitario, ma sottolinea la necessità di prove, supervisione e un'attenta integrazione laddove gli errori possono causare danni.
Perché i medici sono preoccupati per le app sanitarie e i chatbot basati sull'intelligenza artificiale?
I medici si preoccupano dell'affidabilità, dei danni arrecati ai pazienti e di chi sia responsabile quando uno strumento fornisce consigli affidabili ma errati. La preoccupazione non riguarda solo l'accuratezza, ma anche il modo in cui i pazienti interpretano i risultati e se il sistema li spinge verso un'autogestione non sicura. In ambito clinico, la mancanza di chiarezza sulle responsabilità può diventare un rischio importante: i pazienti potrebbero fidarsi dello strumento, i medici potrebbero non controllarlo e le indicazioni potrebbero essere in ritardo rispetto all'adozione.