Come funziona l'upscaling dell'IA

Come funziona l'upscaling AI?

Risposta breve: l'upscaling basato sull'intelligenza artificiale funziona addestrando un modello su immagini accoppiate a bassa e alta risoluzione, quindi utilizzandolo per prevedere pixel aggiuntivi credibili durante l'upscaling. Se il modello ha visto texture o volti simili durante l'addestramento, può aggiungere dettagli convincenti; in caso contrario, potrebbe "allucinare" artefatti come aloni, pelle cerea o sfarfallio nel video.

Punti chiave:

Previsione : il modello genera dettagli plausibili, non una ricostruzione garantita della realtà.

Scelta del modello : le CNN tendono a essere più stabili; le GAN possono apparire più nitide, ma rischiano di inventare nuove caratteristiche.

Controlli degli artefatti : fai attenzione ad aloni, texture ripetute, "quasi lettere" e facce di plastica.

Stabilità video : usa metodi temporali altrimenti vedrai tremolare e fluttuare da un fotogramma all'altro.

Utilizzo ad alto rischio : se l'accuratezza è importante, divulgare l'elaborazione e trattare i risultati come illustrativi.

Come funziona l'upscaling dell'IA? Infografica.

Probabilmente l'avete già visto: un'immagine minuscola e nitida si trasforma in qualcosa di così nitido da poter essere stampato, trasmesso in streaming o inserito in una presentazione senza sbattere la testa. Sembra quasi di barare. E - nel senso buono del termine - in un certo senso lo è 😅

Quindi, il funzionamento dell'upscaling tramite IA si riduce a qualcosa di più specifico di "il computer migliora i dettagli" (parola vagamente arzigogolata) e più vicino a "un modello prevede una struttura plausibile ad alta risoluzione basata su modelli appresi da numerosi esempi" ( Deep Learning for Image Super-resolution: A Survey ). Questa fase di previsione è fondamentale, ed è il motivo per cui l'upscaling tramite IA può apparire sorprendente... o un po' plasticoso... o come se al vostro gatto fossero cresciuti dei baffi extra.

Articoli che potrebbero interessarti dopo questo:

🔗 Come funziona l'intelligenza artificiale
Scopri le basi dei modelli, dei dati e dell'inferenza nell'intelligenza artificiale.

🔗 Come impara l'intelligenza artificiale
Scopri come i dati di addestramento e il feedback migliorano le prestazioni del modello nel tempo.

🔗 Come l'intelligenza artificiale rileva le anomalie
Comprendere i modelli di base e il modo in cui l'intelligenza artificiale segnala rapidamente i comportamenti insoliti.

🔗 Come l'intelligenza artificiale prevede le tendenze
Esplora metodi di previsione che individuano i segnali e anticipano la domanda futura.


Come funziona l'upscaling dell'IA: l'idea centrale, in parole di tutti i giorni 🧩

L'upscaling significa aumentare la risoluzione: più pixel, immagine più grande. L'upscaling tradizionale (come quello bicubico) sostanzialmente allunga i pixel e ammorbidisce le transizioni ( interpolazione bicubica ). È un'operazione valida, ma non può inventare nuovi dettagli: si limita a interpolare.

L'upscaling dell'IA tenta qualcosa di più audace (noto anche come "super-risoluzione" nel mondo della ricerca) ( Deep Learning for Image Super-resolution: A Survey ):

  • Esamina l'input a bassa risoluzione

  • Riconosce i modelli (bordi, texture, tratti del viso, tratti di testo, trama del tessuto...)

  • dovrebbe apparire una versione ad alta risoluzione

  • Genera dati pixel aggiuntivi che si adattano a tali modelli

Non "ripristinare la realtà alla perfezione", ma piuttosto "fare un'ipotesi altamente credibile" ( Image Super-Resolution Using Deep Convolutional Networks (SRCNN) ). Se vi sembra un po' sospetto, non vi sbagliate, ma è anche il motivo per cui funziona così bene 😄

E sì, questo significa che l'upscaling dell'IA è fondamentalmente un'allucinazione controllata... ma in un modo produttivo e rispettoso dei pixel.


Cosa rende una buona versione dell'upscaling dell'IA? ✅🛠️

Se stai valutando un upscaler AI (o un'impostazione predefinita), ecco cosa tende a essere più importante:

  • Recupero dei dettagli senza cottura eccessiva
    Un buon upscaling aggiunge nitidezza e struttura, senza rumore croccante o pori finti.

  • Disciplina dei bordi
    Le linee pulite rimangono pulite. I modelli scadenti fanno oscillare i bordi o creano aloni.

  • Realismo delle texture
    I capelli non dovrebbero diventare una pennellata. I mattoni non dovrebbero diventare un timbro con un motivo ripetuto.

  • Gestione del rumore e della compressione
    Molte immagini di uso quotidiano vengono trasformate in JPEG fino alla morte. Un buon upscaler non amplifica questo danno ( Real-ESRGAN ).

  • Riconoscimento di volti e testo
    I volti e il testo sono i punti in cui è più facile individuare gli errori. I buoni modelli li trattano con delicatezza (o hanno modalità specializzate).

  • Coerenza tra i fotogrammi (per i video)
    Se i dettagli sfarfallano da un fotogramma all'altro, i tuoi occhi urleranno. L'upscaling video vive o muore in base alla stabilità temporale ( BasicVSR (CVPR 2021) ).

  • Controlli sensati
    Vuoi cursori che rispondano a risultati reali: riduzione del rumore, deblur, rimozione degli artefatti, mantenimento della grana, nitidezza... le cose pratiche.

Una regola silenziosa che regge: l'upscaling "migliore" è spesso quello che si nota a malapena. Sembra solo che avessi una fotocamera migliore fin dall'inizio 📷✨


Tabella comparativa: le opzioni di upscaling AI più diffuse (e a cosa servono) 📊🙂

Di seguito un confronto pratico. I prezzi sono volutamente vaghi perché gli strumenti variano in base alla licenza, ai pacchetti, ai costi di elaborazione e a tutte quelle altre cose interessanti.

Strumento / Approccio Ideale per Vibrazione del prezzo Perché funziona (più o meno)
Upscaler desktop in stile Topaz ( Topaz Photo , Topaz Video ) Foto, video, flusso di lavoro semplice Pagato Modelli generali forti + molta messa a punto, tende a "semplicemente funzionare"... per lo più
Funzionalità di tipo "Super Resolution" di Adobe ( Adobe Enhance > Super Resolution ) Fotografi già presenti in quell'ecosistema Abbonamento-y Ricostruzione dettagliata e solida, solitamente conservativa (meno drammatica)
Varianti Real-ESRGAN / ESRGAN ( Real-ESRGAN , ESRGAN ) Fai da te, sviluppatori, lavori in batch Gratuito (ma dispendioso in termini di tempo) Ottimo per i dettagli delle texture, può risultare piccante sui volti se non si presta attenzione
Modalità di upscaling basate sulla diffusione ( SR3 ) Lavoro creativo, risultati stilizzati Misto Può creare dettagli meravigliosi, ma può anche inventare cose senza senso, quindi... sì
Upscaler di gioco (stile DLSS/FSR) ( NVIDIA DLSS , AMD FSR 2 ) Gioco e rendering in tempo reale In bundle Utilizza dati di movimento e precedenti appresi: prestazioni fluide vincenti 🕹️
Servizi di upscaling del cloud Comodità, vittorie rapide Pagamento a consumo Veloce e scalabile, ma a volte si rinuncia al controllo e alla sottigliezza
Upscaler AI focalizzati sui video ( BasicVSR , Topaz Video ) Vecchi filmati, anime, archivi Pagato Trucchi temporali per ridurre lo sfarfallio + modelli video specializzati
Upscaling della galleria/telefono “intelligente” Uso occasionale Incluso Modelli leggeri ottimizzati per risultati soddisfacenti, non per la perfezione (comunque utili)

Confessione di una stranezza di formattazione: "Paid-ish" sta facendo un sacco di lavoro in quella tabella. Ma il concetto è chiaro 😅


Il grande segreto: i modelli imparano una mappatura da bassa a alta risoluzione 🧠➡️🖼️

Al centro della maggior parte dell'upscaling dell'IA c'è un sistema di apprendimento supervisionato ( Image Super-Resolution Using Deep Convolutional Networks (SRCNN) ):

  1. Inizia con immagini ad alta risoluzione (la “verità”)

  2. Riduci il campione in versioni a bassa risoluzione (l'"input")

  3. Addestrare un modello per ricostruire l'alta risoluzione originale da quella a bassa risoluzione

Nel tempo, il modello apprende correlazioni come:

  • “Questo tipo di sfocatura intorno all’occhio di solito appartiene alle ciglia”

  • “Questo cluster di pixel indica spesso un testo con grazie”

  • "Questo gradiente di bordo sembra una linea sul tetto, non un rumore casuale"

Non si tratta di memorizzare immagini specifiche (in senso stretto), ma di apprendere una struttura statistica ( Deep Learning for Image Super-resolution: A Survey ). Immaginatelo come imparare la grammatica delle texture e dei bordi. Non la grammatica della poesia, ma più simile a... la grammatica del manuale IKEA 🪑📦 (metafora goffa, ma abbastanza vicina).


I dettagli: cosa succede durante l'inferenza (quando si esegue l'upscaling) ⚙️✨

Quando si inserisce un'immagine in un upscaler AI, in genere si crea una pipeline come questa:

  • Pre-elaborazione

  • Estrazione delle caratteristiche

    • I primi livelli rilevano bordi, angoli, gradienti

    • Gli strati più profondi rilevano modelli: texture, forme, componenti facciali

  • Ricostruzione

    • Il modello genera una mappa delle caratteristiche ad alta risoluzione

    • Quindi converte il tutto in un output pixel effettivo

  • Post-elaborazione

    • Affilatura facoltativa

    • Denoise opzionale

    • Soppressione opzionale degli artefatti (sonorità, aloni, blocchi)

Un dettaglio sottile: molti strumenti ingrandiscono le tessere, poi sfumano le giunture. Gli strumenti migliori nascondono i bordi delle tessere. Gli strumenti mediocri lasciano deboli segni della griglia se strizzi gli occhi. E sì, strizzerai gli occhi, perché gli umani amano ispezionare le piccole imperfezioni con uno zoom del 300% come piccoli gremlin 🧌


Le principali famiglie di modelli utilizzate per l'upscaling dell'IA (e perché sono diverse) 🤖📚

1) Super-risoluzione basata sulla CNN (il classico cavallo di battaglia)

Le reti neurali convoluzionali sono ottime per i modelli locali: bordi, texture, piccole strutture ( Image Super-Resolution Using Deep Convolutional Networks (SRCNN) ).

  • Pro: abbastanza veloce, stabile, meno sorprese

  • Contro: può sembrare un po' "elaborato" se spinto troppo

2) Upscaling basato su GAN (stile ESRGAN) 🎭

Le GAN (Generative Adversarial Network) addestrano un generatore a produrre immagini ad alta risoluzione che un discriminatore non riesce a distinguere da quelle reali ( Generative Adversarial Network ).

  • Pro: dettagli incisivi, texture impressionante

  • Contro: può inventare dettagli che non c'erano - a volte sbagliati, a volte inquietanti ( SRGAN , ESRGAN )

Un GAN può darti una nitidezza da togliere il fiato. Può anche dare al soggetto del tuo ritratto un sopracciglio in più. Quindi... scegli le tue battaglie 😬

3) Upscaling basato sulla diffusione (la carta jolly creativa) 🌫️➡️🖼️

I modelli di diffusione eliminano il rumore passo dopo passo e possono essere guidati per produrre dettagli ad alta risoluzione ( SR3 ).

  • Pro: può essere incredibilmente bravo nei dettagli plausibili, soprattutto per i lavori creativi

  • Contro: può allontanarsi dall'identità/struttura originale se le impostazioni sono aggressive ( SR3 )

È qui che "upscaling" inizia a fondersi con "reinventare". A volte è esattamente ciò che si desidera. A volte no.

4) Upscaling video con coerenza temporale 🎞️

L'upscaling video spesso aggiunge una logica basata sul movimento:

  • Utilizza fotogrammi adiacenti per stabilizzare i dettagli ( BasicVSR (CVPR 2021) )

  • Cerca di evitare sfarfallii e artefatti striscianti

  • Spesso combina la super-risoluzione con la riduzione del rumore e il deinterlacciamento ( Topaz Video )

Se l'upscaling di un'immagine è come restaurare un dipinto, l'upscaling di un video è come restaurare un flipbook senza dover cambiare la forma del naso del personaggio a ogni pagina. Il che è... più difficile di quanto sembri.


Perché l'upscaling dell'IA a volte sembra falso (e come individuarlo) 👀🚩

L'upscaling dell'IA fallisce in modi riconoscibili. Una volta appresi i modelli, li vedrai ovunque, come quando compri una nuova auto e improvvisamente noti quel modello in ogni strada 😵💫

Indizi comuni:

  • Depilazione con cera sul viso (troppa denoise + levigatura)

  • Aloni eccessivamente nitidi attorno ai bordi (classico territorio di "sovraesposizione") ( interpolazione bicubica )

  • Texture ripetute (i muri di mattoni diventano motivi copia-incolla)

  • Micro-contrasto croccante che urla "algoritmo"

  • Testo alterato in cui le lettere diventano quasi lettere (il peggior tipo)

  • Deriva dei dettagli in cui piccole caratteristiche cambiano sottilmente, soprattutto nei flussi di lavoro di diffusione ( SR3 )

La parte difficile: a volte questi artefatti sembrano "migliori" a prima vista. Il cervello ama la nitidezza. Ma dopo un attimo, sembra... strano.

Una buona tattica è quella di allontanare lo zoom e verificare se l'immagine appare naturale a una distanza di visione normale. Se l'immagine appare bella solo con uno zoom del 400%, non è una vittoria, è un hobby 😅


Come funziona l'upscaling dell'IA: il lato formativo, senza il mal di testa della matematica 📉🙂

L'addestramento dei modelli a super-risoluzione solitamente prevede:

Tipi di perdite tipiche:

  • Perdita di pixel (L1/L2)
    Favorisce la precisione. Può produrre risultati leggermente sbiaditi.

  • Perdita percettiva
    Confronta caratteristiche più profonde (come "sembra simile ?") piuttosto che pixel esatti ( Perdite percettive (Johnson et al., 2016) ).

  • Perdita avversaria (GAN)
    Incoraggia il realismo, a volte a scapito dell'accuratezza letterale ( SRGAN , Generative Adversarial Networks ).

C'è un continuo tira e molla:

  • Rendilo fedele all'originale
    vs.

  • Rendilo visivamente gradevole

Strumenti diversi si collocano in posizioni diverse su questo spettro. E potresti preferirne uno a seconda che tu stia restaurando foto di famiglia o preparando un poster, dove l'aspetto estetico è più importante dell'accuratezza forense.


Flussi di lavoro pratici: foto, vecchie scansioni, anime e video 📸🧾🎥

Foto (ritratti, paesaggi, scatti di prodotti)

La migliore pratica è solitamente:

  • Prima una leggera riduzione del rumore (se necessario)

  • Di lusso con impostazioni conservative

  • Aggiungere nuovamente la grana se il tutto sembra troppo liscio (sì, davvero)

Il grano è come il sale. Troppo rovina la cena, ma nessuno può avere un sapore un po' piatto 🍟

Vecchie scansioni e immagini fortemente compresse

Questi sono più difficili perché il modello potrebbe trattare i blocchi di compressione come "texture".
Prova:

  • Rimozione o sblocco degli artefatti

  • Poi di lusso

  • Poi una leggera nitidezza (non troppa... lo so, lo dicono tutti, ma comunque)

Anime e disegni al tratto

I vantaggi della grafica lineare sono:

  • Modelli che mantengono i bordi puliti

  • Allucinazione delle texture ridotta
    L'upscaling degli anime spesso ha un effetto fantastico perché le forme sono più semplici e coerenti. (Fortunatamente.)

Video

Il video aggiunge passaggi aggiuntivi:

  • Denoise

  • Deinterlacciamento (per alcune sorgenti)

  • Di lusso

  • Smoothing o stabilizzazione temporale ( BasicVSR (CVPR 2021) )

  • Reintroduzione facoltativa del grano per la coesione

Se si salta la coerenza temporale, si ottiene quel luccichio di dettagli. Una volta notato, non si può più fare a meno di vederlo. Come una sedia che cigola in una stanza silenziosa 😖


Scegliere le impostazioni senza indovinare a caso (un piccolo promemoria) 🎛️😵💫

Ecco una buona mentalità di partenza:

  • Se i volti appaiono plasticosi,
    ridurre la riduzione del rumore, ridurre la nitidezza, provare un modello o una modalità che preserva il volto.

  • Se le texture sembrano troppo intense,
    abbassa i cursori "miglioramento dettagli" o "recupero dettagli", quindi aggiungi una grana sottile.

  • Se i bordi brillano,
    ridurre la nitidezza e controllare le opzioni di soppressione dell'alone.

  • Se l'immagine sembra troppo "AI",
    sii più conservativo. A volte la mossa migliore è semplicemente... meno.

Inoltre: non aumentare di 8x solo perché puoi. Un 2x o 4x pulito è spesso la soluzione ideale. Oltre a questo, stai chiedendo al modello di scrivere una fanfiction sui tuoi pixel 📖😂


Etica, autenticità e la scomoda questione della “verità” 🧭😬

L'upscaling dell'IA sfuma i confini:

  • Il restauro implica il recupero di ciò che c'era

  • Il miglioramento implica l'aggiunta di ciò che non era

Con le foto personali, di solito va bene (e anche bene). Con il giornalismo, le prove legali, la diagnostica per immagini o qualsiasi cosa in cui la fedeltà sia importante... bisogna fare attenzione ( OSAC/NIST: Guida standard per la gestione delle immagini digitali forensi , Linee guida SWGDE per l'analisi delle immagini forensi ).

Una regola semplice:

  • Se la posta in gioco è alta, considerate l'upscaling dell'IA come un esempio , non come una decisione definitiva.

Inoltre, la trasparenza è importante in contesti professionali. Non perché l'intelligenza artificiale sia malvagia, ma perché il pubblico merita di sapere se i dettagli sono stati ricostruiti o catturati. È semplicemente... rispettoso.


Note conclusive e un breve riepilogo 🧡✅

Quindi, il funzionamento dell'upscaling basato sull'intelligenza artificiale è questo: i modelli apprendono come i dettagli ad alta risoluzione tendono a relazionarsi con i pattern a bassa risoluzione, quindi prevedono pixel aggiuntivi credibili durante l'upscaling ( Deep Learning for Image Super-resolution: A Survey ). A seconda della famiglia di modelli (CNN, GAN, diffusione, video-temporale), questa previsione può essere conservativa e fedele... o audace e a volte sbilanciata 😅

Breve riepilogo

Se vuoi, dimmi cosa stai ingrandendo (volti, vecchie foto, video, anime, scansioni di testo) e ti suggerirò una strategia di impostazioni che tende a schivare le comuni insidie ​​dell'"aspetto AI" 🎯🙂


Domande frequenti

Upscaling dell'intelligenza artificiale e come funziona

L'upscaling basato sull'intelligenza artificiale (spesso chiamato "super-risoluzione") aumenta la risoluzione di un'immagine prevedendo i dettagli mancanti ad alta risoluzione a partire da pattern appresi durante l'addestramento. Invece di limitarsi a stirare i pixel come nell'interpolazione bicubica, un modello studia bordi, texture, volti e tratti simili a testo, quindi genera nuovi dati pixel coerenti con i pattern appresi. Si tratta meno di "ripristinare la realtà" e più di "fare un'ipotesi credibile" che risulti naturale.

Upscaling AI rispetto al ridimensionamento bicubico o tradizionale

I metodi di upscaling tradizionali (come il bicubico) interpolano principalmente tra pixel esistenti, attenuando le transizioni senza creare nuovi dettagli. L'upscaling basato sull'intelligenza artificiale mira a ricostruire una struttura plausibile riconoscendo gli indizi visivi e prevedendo come tendono ad apparire le versioni ad alta risoluzione di tali indizi. Ecco perché i risultati dell'intelligenza artificiale possono apparire notevolmente più nitidi e anche perché possono introdurre artefatti o "inventare" dettagli non presenti nella sorgente.

Perché i volti possono apparire cerosi o eccessivamente lisci

I volti cerei sono solitamente il risultato di un'aggressiva riduzione del rumore e di una levigatura abbinata a un effetto di nitidezza che elimina la texture naturale della pelle. Molti strumenti trattano il rumore e le texture sottili in modo simile, quindi "pulire" un'immagine può cancellare pori e dettagli sottili. Un approccio comune consiste nel ridurre la riduzione del rumore e la nitidezza, utilizzare una modalità di preservazione del volto, se disponibile, e quindi reintrodurre un tocco di grana in modo che il risultato sia meno plastico e più fotografico.

Artefatti comuni di upscaling dell'IA da tenere d'occhio

I segnali tipici includono aloni attorno ai bordi, texture ripetute (come mattoni copiati e incollati), microcontrasto granuloso e testo che si trasforma in "quasi lettere". Nei flussi di lavoro basati sulla diffusione, è anche possibile osservare una deriva dei dettagli dove piccole caratteristiche cambiano leggermente. Per i video, lo sfarfallio e il dettaglio che si sposta tra i fotogrammi sono grandi campanelli d'allarme. Se l'immagine appare soddisfacente solo con zoom estremo, probabilmente le impostazioni sono troppo aggressive.

In che modo GAN, CNN e gli upscaler di diffusione tendono a differire nei risultati

La super-risoluzione basata sulla CNN tende a essere più stabile e prevedibile, ma può apparire "elaborata" se spinta troppo. Le opzioni basate sulla GAN (stile ESRGAN) producono spesso texture più incisive e una nitidezza percepita più nitida, ma possono allucinare dettagli errati, soprattutto sui volti. L'upscaling basato sulla diffusione può generare dettagli bellissimi e plausibili, ma può discostarsi dalla struttura originale se le impostazioni di guida o intensità sono troppo forti.

Una strategia di impostazione pratica per evitare un aspetto "troppo AI"

Inizia con cautela: aumenta la risoluzione di 2x o 4x prima di ricorrere a fattori estremi. Se i volti appaiono plasticosi, riduci la riduzione del rumore e la nitidezza e prova una modalità di riconoscimento del volto. Se le texture diventano troppo intense, riduci l'aumento dei dettagli e valuta l'aggiunta di una grana sottile in un secondo momento. Se i bordi brillano, riduci la nitidezza e controlla la soppressione degli aloni o degli artefatti. In molte pipeline, "meno" vince perché preserva un realismo credibile.

Gestione di vecchie scansioni o immagini fortemente compresse in JPEG prima dell'upscaling

Le immagini compresse sono complesse perché i modelli possono trattare gli artefatti a blocchi come texture reali e amplificarli. Un flusso di lavoro comune prevede prima la rimozione o il deblocking degli artefatti, poi l'upscaling e, solo se necessario, un leggero sharpening. Per le scansioni, una pulizia delicata può aiutare il modello a concentrarsi sulla struttura effettiva piuttosto che sui danni. L'obiettivo è ridurre i "falsi indizi di texture", in modo che chi esegue l'upscaler non sia costretto a fare supposizioni affidabili partendo da input rumorosi.

Perché l'upscaling video è più difficile dell'upscaling delle foto

L'upscaling video deve essere uniforme su tutti i fotogrammi, non solo efficace su una singola immagine fissa. Se i dettagli sfarfallano da un fotogramma all'altro, il risultato diventa rapidamente fonte di distrazione. Gli approcci incentrati sul video utilizzano le informazioni temporali provenienti dai fotogrammi adiacenti per stabilizzare la ricostruzione ed evitare artefatti scintillanti. Molti flussi di lavoro includono anche la riduzione del rumore, il deinterlacciamento per alcune sorgenti e la reintroduzione opzionale della grana, in modo che l'intera sequenza risulti coesa anziché artificialmente nitida.

Quando l'upscaling dell'IA non è appropriato o è rischioso affidarsi ad esso

L'upscaling basato sull'intelligenza artificiale è meglio considerarlo un miglioramento, non una prova. In contesti ad alto rischio come il giornalismo, le prove legali, l'imaging medico o il lavoro forense, generare pixel "credibili" può essere fuorviante perché potrebbe aggiungere dettagli che non sono stati acquisiti. Un modo più sicuro per farlo è usarlo a scopo illustrativo e dichiarare che un processo di intelligenza artificiale ha ricostruito i dettagli. Se la fedeltà è fondamentale, è opportuno conservare gli originali e documentare ogni fase e impostazione dell'elaborazione.

Riferimenti

  1. arXiv - Deep Learning per la super-risoluzione delle immagini: un sondaggio - arxiv.org

  2. arXiv - Super-risoluzione delle immagini mediante reti convoluzionali profonde (SRCNN) - arxiv.org

  3. arXiv - Real-ESRGAN - arxiv.org

  4. arXiv - ESRGAN - arxiv.org

  5. arXiv - SR3 - arxiv.org

  6. Sviluppatore NVIDIA - NVIDIA DLSS - developer.nvidia.com

  7. AMD GPUOpen - FidelityFX Super Resolution 2 - gpuopen.com

  8. The Computer Vision Foundation (CVF) Open Access - BasicVSR: la ricerca dei componenti essenziali nella super-risoluzione video (CVPR 2021) - openaccess.thecvf.com

  9. arXiv - Reti generative avversarie - arxiv.org

  10. arXiv - SRGAN - arxiv.org

  11. arXiv - Perdite percettive (Johnson et al., 2016) - arxiv.org

  12. GitHub - Repository Real-ESRGAN (opzioni tile) - github.com

  13. Wikipedia - Interpolazione bicubica - wikipedia.org

  14. Topaz Labs - Foto di Topaz - topazlabs.com

  15. Topaz Labs - Video Topaz - topazlabs.com

  16. Centro assistenza Adobe - Adobe Enhance > Super Resolution - helpx.adobe.com

  17. NIST / OSAC - Guida standard per la gestione delle immagini digitali forensi (versione 1.0) - nist.gov

  18. SWGDE - Linee guida per l'analisi forense delle immagini - swgde.org

Trova l'ultima intelligenza artificiale nello store ufficiale di AI Assistant

Chi siamo

Torna al blog