- In Stable Diffusion WebUI, fai clic sulla scheda “Extra”.
- Carica l’immagine o le immagini che desideri ingrandire.
- Regola il cursore Ridimensiona per scegliere la risoluzione desiderata.
- Scegli un upscaler da utilizzare.
- Fare clic su “Genera”.
Deluso dalla bassa risoluzione delle tue creazioni Stable Diffusion? O forse hai foto “reali” più vecchie che vorresti migliorare? Stable Diffusion WebUI ha strumenti proprio per questo e ti guideremo attraverso il processo condividendo alcuni suggerimenti che abbiamo imparato lungo il percorso.
Nota: In questa guida supponiamo che tu abbia installato e funzionante la Stable Diffusion WebUI di automatic11111. È l’edizione definitiva di Stable Diffusion e rende l’upscaling (insieme a molti altri aspetti del lavoro con le immagini AI) molto più semplice e intuitivo rispetto a un’installazione Stable Diffusion standard.
Come eseguire l’upscaling delle immagini in diffusione stabile
Suggerimenti per migliori risultati di upscaling
Come eseguire l’upscaling delle immagini in diffusione stabile
Che tu abbia una scansione di una vecchia foto, una vecchia foto digitale o un’immagine generata da IA a bassa risoluzione, avvia Stable Diffusion WebUI e segui i passaggi seguenti.
1. Carica un’immagine
Tutti gli strumenti di upscaling di Stable Diffusion si trovano nella scheda “Extra”, quindi fai clic per aprire il menu di upscaling.
Oppure, se hai appena generato un’immagine che desideri ingrandire, fai clic su “Invia a Extra” e verrai indirizzato lì con l’immagine pronta per l’ingrandimento. Altrimenti, puoi trascinare e rilasciare la tua immagine nel campo Caricamento extra.
Se hai più immagini che desideri ingrandire contemporaneamente, passa alla scheda “Elaborazione batch” e rilasciane diverse contemporaneamente. Nella mia esperienza, però, questo non funziona sempre, e
Passaggio 2: scegli una taglia
Usa il cursore “Ridimensiona” per regolare quanto dovrebbe essere grande l’immagine di output. Per impostazione predefinita, utilizzerai la scheda “Scala per” che ti consente di moltiplicare la risoluzione corrente dell’immagine per un dato numero. Quindi, ad esempio, se lo imposti su 2 e l’immagine di input è 512×512, l’immagine verrà ingrandita a 1024×1024.
In alternativa, puoi passare alla scheda “Ridimensiona a” e inserire una risoluzione specifica che desideri. Presta molta attenzione alle proporzioni correnti dell’immagine e deseleziona l’opzione “Ritaglia per adattare” se non desideri che i bordi vengano tagliati.
Se hai intenzione di creare uno sfondo, tieni presente che la maggior parte dei telefoni moderni utilizza un formato 9:16, i tablet utilizzano 4:3 e i computer 16:9 (anche se i monitor ultrawide arrivano fino a 21:9).
Passaggio 3: scegli un Upscaler
Ora, qui è facile sentirsi sopraffatti: hai a disposizione diversi algoritmi di upscaling diversi, tutti con nomi criptici, e devi sceglierne uno.
Quello che dovresti scegliere in ultima analisi dipende dal tipo di immagine che stai ridimensionando, come una foto, un dipinto, l’arte di un anime o un altro tipo di opera d’arte in stile “cartone animato”. Diversi algoritmi funzionano anche a velocità diverse, quindi potrebbe anche dipendere dal tipo di fretta che hai.
Qual è il miglior upscaler a diffusione stabile?
Sperimentare con i diversi algoritmi è l’unico modo per sapere esattamente quale degli upscaler integrati di Stable Diffucion è il migliore per il tuo caso. Detto questo, se desideri una raccomandazione di base, queste sono generalmente buone scelte:
- Fotografie: ESRGAN_4x
- Dipinti: R-ESRGAN 4x+
- Anime: R-ESRGAN 4x+ Anime6B
Passaggio 4: di alto livello!
Dopo aver configurato le impostazioni, è il momento di migliorare. Premi quel grande pulsante “Genera” per iniziare il processo.
La prima volta che esegui l’upscaling con un determinato algoritmo, Stable Diffusion dovrà scaricare i modelli appropriati, quindi aspettati che l’esecuzione iniziale richieda più tempo (che dipenderà in parte dalla velocità della tua connessione).
Una volta completato l’upscaling, troverai le immagini di output nel file extras-images
sottodirectory del tuo outputs
cartella.
IMPARENTATO: Come utilizzare la diffusione stabile per creare GIF e video AI
Suggerimenti per migliori risultati di upscaling
Se le immagini non sembrano proprio come ti aspettavi, ci sono alcune cose che puoi fare per ottenere risultati migliori dagli strumenti di upscaling di Stable Diffusion.
Prova una combinazione Upscaler
Per l’upscaling avanzato, puoi selezionare un secondo algoritmo che applicherà il suo effetto alla stessa immagine e i risultati dei due upscaler verranno miscelati per il prodotto finale. (Per essere chiari, un secondo upscaler lo farà non raddoppiare la risoluzione di uscita.) Questo è utile se trovi che due diversi upscaler producono risultati migliori per motivi diversi.
Ad esempio, nei miei test, ho scoperto che ESRGAN_4x era il migliore per mantenere i dettagli, ma SwinIR aveva meno grana, introducendo anche alcuni fastidiosi artefatti delle tessere. Potrei ottenere il meglio da entrambi i mondi impostando ESRGAN_4x come upscaler primario e SwinIR come secondario, con visibilità 0,5.
Risolvi i rapporti di aspetto errati con Outpainting
Se si dispone di un’immagine che si desidera utilizzare con proporzioni specifiche, ma l’immagine ingrandita è troppo alta o larga due per essere utilizzata senza ritagliare, è possibile risolvere il problema utilizzando lo strumento “outpainting” di Stable Diffusion. Ti consente di generare “più” dell’immagine, aggiungendo immagini ai lati o in alto e in basso che prima non c’erano.
Per iniziare a dipingere, rilascia la tua immagine nell’input img2img e cerca il menu a discesa “Script” e seleziona Outpainting mk2 o Poor Man’s Outpainting. Regola le impostazioni che ritieni necessarie, quindi fai clic su “Genera”.
Come scoprirai rapidamente, dipingere bene è difficile e probabilmente un argomento per un’altra guida, specialmente con contenuti di immagini complessi come persone e animali. Detto questo, solo scherzando e senza apportare troppe modifiche sono riuscito a generare questa versione panoramica della mia immagine che, a prima vista, sembra quasi credibile.
Ripristina facce distorte con GPFGAN o CodeFormer
Se c’è il volto di una persona nell’immagine che stai facendo esplodere, può facilmente diventare distorta oltre il riconoscimento. Senza dubbio hai visto anche alcune delle interpretazioni piuttosto orribili di volti umani di Stable Diffusion. In entrambi i casi è necessario spostare i cursori di visibilità GPFGAN o CodeFormer. Ognuno applica uno strato di correzione facciale durante il processo di upscaling per riparare quegli occhi spettrali e le rughe bizzarre.
Se stai usando CodeFormer, puoi anche regolare il “peso” del suo effetto, che è un po’ come controllare il suo livello di forza (mentre il cursore visibilità è un po’ come regolare la trasparenza del suo livello di correzione). Più aumenti il peso, più CodeFormer cercherà di correggere. Questo può migliorare o degradare l’immagine finale a seconda della situazione. Potrebbe essere necessario eseguire alcuni tentativi ed errori per ottenere il miglior risultato possibile.
GPFGAN vs. CodeFormer per il restauro facciale
Sebbene entrambi siano strumenti capaci, GPFGAN è generalmente migliore nel ripristinare la struttura di un viso (occhi in particolare), ma CodeFormer è migliore nel fissare le trame della pelle. GPFGAN ha la tendenza a conferire alla pelle umana uno strano aspetto ultraliscio, quindi se noti che sta accadendo, prova invece CodeFormer. In alternativa, combina i due e cerca di ottenere il meglio da entrambi i mondi. Ancora una volta, la sperimentazione è la chiave.
In termini di velocità, GPFGAN è leggermente più veloce di CodeFormer. Quindi, se stai cercando di fare in modo che il tuo upscaling avvenga il più rapidamente possibile, probabilmente vorrai appoggiarti a GPFGAN.
IMPARENTATO: Come creare fantastici sfondi per qualsiasi dispositivo con MidJourney