<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="it">
	<id>https://wiki.mindmaker.it/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Stefano</id>
	<title>Wiki AI - Contributi dell&#039;utente [it]</title>
	<link rel="self" type="application/atom+xml" href="https://wiki.mindmaker.it/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Stefano"/>
	<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php/Speciale:Contributi/Stefano"/>
	<updated>2026-05-13T18:10:29Z</updated>
	<subtitle>Contributi dell&amp;#039;utente</subtitle>
	<generator>MediaWiki 1.41.0</generator>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Stable_Diffusion&amp;diff=1652</id>
		<title>Stable Diffusion</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Stable_Diffusion&amp;diff=1652"/>
		<updated>2024-03-27T13:34:48Z</updated>

		<summary type="html">&lt;p&gt;Stefano: /* Architettura */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nella sua forma più semplice è un modello [[text-to-image]], dato un [[prompt]] testuale, genera un&#039;immagine corrispondente.&lt;br /&gt;
E&#039; stato finanziato da Stability AI, ed è stato rilasciato nel 2022. Il paper originale è [[High-Resolution Image Synthesis with Latent Diffusion Models (Giugno 2022)]].&lt;br /&gt;
&lt;br /&gt;
== Versioni ==&lt;br /&gt;
* Versione 1: immagini 512x512&lt;br /&gt;
* Versione 2: immagini 768x768 (09/2022)&lt;br /&gt;
* [https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0 Versione XL (SDXL)]: immagini 1024x1024 (07/2023)&lt;br /&gt;
&lt;br /&gt;
== Principale differenza rispetto agli altri modelli di generazione di immagini ==&lt;br /&gt;
Diversamente da [[VAE]] e [[Generative Adversarial Networks (GAN)]], che generano le immagini in un solo passaggio, Stable Diffusion genera le immagini iterativamente.&lt;br /&gt;
&lt;br /&gt;
== Architettura ==&lt;br /&gt;
Utilizza un tipo di [[Modello Di Diffusione]], anche chiamato [[LDM (Modello di Diffusione Latente)]].&lt;br /&gt;
Durante il processo di codifica, o [[Forward Diffusion]], un [[VAE - Variational Autoencoder]] comprime l&#039;immagine dallo spazio dei pixel a uno spazio latente con meno dimensioni, catturando il significato semantico dell&#039;immagine, da cui il termine [[LDM (Modello di Diffusione Latente)]]. Lo spazio latente di Stable Diffusion è di dimensioni 4x64x64 per immagini di dimensioni 512x512, 48 volte più piccolo dello spazio originale dei pixel.&lt;br /&gt;
&lt;br /&gt;
[[File:forward-diffusion.png|500px]]&lt;br /&gt;
&lt;br /&gt;
In maniera iterativa viene poi aggiunto del rumore gaussiano alle rappresentazioni delle immagini come vettori in questo spazio latente, in step, finchè non diventa rumore bianco. Un tipico numero di iterazioni è 1000.&lt;br /&gt;
Il processo di [[Reverse Diffusion]] rimuove poi il rumore, attraverso l&#039;utilizzo di un modello [[U-Net]] a cui si insegna a predire quanto rumore è stato aggiunto ad ogni passo. Infine, la parte Decoder del [[VAE - Variational Autoencoder]] viene utilizzata per creare i valori dei pixel dallo spazio latente.&lt;br /&gt;
&lt;br /&gt;
La parte di condizionamento, derivante dal prompt, utilizza la codifica dei token - creta utilizzando il tokenizer [[CLIP]] di [[OpenAI]] in [[embedding]] (dimensione 768 per AUTOMATIC1111), fino a un numero massimo di 75 token. Questi embedding vengono poi utilizzati per &amp;quot;indirizzare&amp;quot; il modello di [[Reverse Diffusion]] verso immagini che contengono ciò che viene richiesto nel prompt.&lt;br /&gt;
&lt;br /&gt;
Stable Diffusion è quindi un modello di diffusione &#039;&#039;&#039;latente&#039;&#039;&#039;. Invece di operare nello spazio vettoriale dell&#039;immagine (che per un&#039;immagine 512 x 512 con tre canali colore richiederebbe uno spazio composto da 786,432 dimensioni!), comprime l&#039;immagine rappresentandola in uno spazio latente. Lo spazio latente risulta 48 volte più piccolo e per questo il calcolo è alleggerito e molto più veloce di quello di altri modelli come Imagen di Google e [[Dall-e 3 (2023)]] di [[OpenAI]].&lt;br /&gt;
&lt;br /&gt;
== Addestramento ==&lt;br /&gt;
L&#039;addestramento, secondo Wikipedia, è stato eseguito utilizzanto [[LAION-5B]].&lt;br /&gt;
&lt;br /&gt;
== Dove provarlo ==&lt;br /&gt;
&lt;br /&gt;
*[[Stable Diffusion WebUI]]&lt;br /&gt;
&lt;br /&gt;
== Tool ==&lt;br /&gt;
* [[Txt2img (Stable Diffusion)]]&lt;br /&gt;
* [[img2img]]&lt;br /&gt;
* [[Extras]]&lt;br /&gt;
* [[PNG Info]]&lt;br /&gt;
* [[Checkpoint Merger]]&lt;br /&gt;
* [[Train]]&lt;br /&gt;
* [[SVD]]&lt;br /&gt;
* [[Z123]]&lt;br /&gt;
&lt;br /&gt;
== Links ==&lt;br /&gt;
&lt;br /&gt;
=== Papers ===&lt;br /&gt;
* [[High-Resolution Image Synthesis with Latent Diffusion Models (Giugno 2022)]]: paper originale&lt;br /&gt;
* [https://arxiv.org/abs/2012.09841 Taming Transformers for High-Resolution Image Synthesis]&lt;br /&gt;
&lt;br /&gt;
=== Github ===&lt;br /&gt;
* [https://github.com/layerdiffusion/LayerDiffusion Transparent Image Layer Diffusion using Latent Transparency]&lt;br /&gt;
* [https://github.com/layerdiffusion/sd-forge-layerdiffusion?tab=readme-ov-file Transparent Image Layer Diffusion using Latent Transparency (WIP extension for SD WebUI)]&lt;br /&gt;
* [https://github.com/lllyasviel/stable-diffusion-webui-forge Platform built on top of Stable Diffusion WebUI (based on Gradio)] &lt;br /&gt;
* [https://github.com/AUTOMATIC1111/stable-diffusion-webui?tab=readme-ov-file A web interface for Stable Diffusion, implemented using Gradio library]&lt;br /&gt;
* [https://github.com/Stability-AI/stablediffusion Official repo contains Stable Diffusion models trained from scratch and will be continuously updated with new checkpoints]&lt;br /&gt;
* [https://github.com/CompVis/taming-transformers Taming Transformers for High-Resolution Image Synthesis]&lt;br /&gt;
&lt;br /&gt;
=== Tutorial ===&lt;br /&gt;
* [https://stable-diffusion-art.com/how-stable-diffusion-work/ How Stable Diffusion Work]&lt;br /&gt;
* [https://pub.towardsai.net/diffusion-models-vs-gans-vs-vaes-comparison-of-deep-generative-models-67ab93e0d9ae Diffusion Models vs. GANs vs. VAEs: Comparison of Deep Generative Models]&lt;br /&gt;
* [https://www.youtube.com/watch?v=MXmacOUJUaw&amp;amp;t=1s Stable Diffusion Illustrated]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Category:Architettura]]&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Txt2img_(Stable_Diffusion)&amp;diff=1565</id>
		<title>Txt2img (Stable Diffusion)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Txt2img_(Stable_Diffusion)&amp;diff=1565"/>
		<updated>2024-03-22T14:44:55Z</updated>

		<summary type="html">&lt;p&gt;Stefano: /* Script */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Txt2img è un tool di [[Stable Diffusion]] che, come intuibile, genera un&#039;immagine .png basata su un prompt testuale. Il suo ultimo aggiornamento risale al 28 Ottobre 2022.&lt;br /&gt;
&lt;br /&gt;
I parametri di Txt2img non verranno descritti con massimo dettaglio dal momento che la finalità di questa Wiki entry è di fornire delle linee guida comprovate da sperimentazione diretta.&lt;br /&gt;
&lt;br /&gt;
* Il primo obiettivo è ricondurre con praticità il livello di performance riscontrato nel modello alle relative combinazioni di parametri.&lt;br /&gt;
&lt;br /&gt;
* Il secondo obiettivo è creare collegamenti tra ciascun parametro e la corrispondente sezione dell&#039;architettura.&lt;br /&gt;
&lt;br /&gt;
= Link di approfondimento =&lt;br /&gt;
Nel caso si voglia approfondire i setting si può visitare il github relativo alla UI: [https://github.com/AUTOMATIC1111/stable-diffusion-webui]&lt;br /&gt;
&lt;br /&gt;
Nel caso si voglia approfondire l&#039;architettura generale si può visitare il repository: [https://github.com/Stability-AI/stablediffusion]&lt;br /&gt;
&lt;br /&gt;
= Overview dell&#039;interfaccia =&lt;br /&gt;
[[File:Overview_diffusion.png|700x700px]]&lt;br /&gt;
&lt;br /&gt;
* [[Sampling method (Stable Diffusion)|Sampling method]]&lt;br /&gt;
&lt;br /&gt;
* Sampling steps:&lt;br /&gt;
&lt;br /&gt;
-Tra l&#039;1 e i 15 step: l&#039;immagine è relativamente sfocata.&lt;br /&gt;
&lt;br /&gt;
-Tra i 15 e i 25 step: L&#039;immagine è abbastanza chiara e di buona qualità.&lt;br /&gt;
&lt;br /&gt;
-Tra i 25 e i 45: La qualità dell&#039;immagine è molto alta e comprende la texture.&lt;br /&gt;
&lt;br /&gt;
-Dai 45 in poi: La loss function si stabilizza e si osserva una variazione minima nella risoluzione.&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:Sampling step 5.png|miniatura|5 step]]&lt;br /&gt;
![[File:10 step.png|miniatura|10 step]]&lt;br /&gt;
![[File:15 step.png|miniatura|15 step]]&lt;br /&gt;
|}&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:25 step.png|miniatura|25 step]]&lt;br /&gt;
![[File:40 step.png|miniatura|40 step]]&lt;br /&gt;
![[File:60 step.png|miniatura|60 step]]&lt;br /&gt;
|}&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:1 step.png|miniatura|1 step]]&lt;br /&gt;
![[File:150 step.png|miniatura|150 step]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
====== Upscaler: ======&lt;br /&gt;
L&#039;upscaling è il processo di aumentare la risoluzione di un&#039;immagine, cioè di ingrandirla, mantenendo al contempo la qualità visiva il più alta possibile e può essere ottenuto mediante algoritmi di interpolazione e tecniche avanzate di elaborazione delle immagini, che aggiungono dettagli artificiali per migliorare l&#039;aspetto dell&#039;immagine.&lt;br /&gt;
&lt;br /&gt;
- Hires Steps: migliorano la qualità dell&#039;immagine attraverso iterazioni aggiuntive durante il processo di generazione&lt;br /&gt;
&lt;br /&gt;
- Denoising strenght&lt;br /&gt;
&lt;br /&gt;
- Upscale by: L&#039;upscale di solito avviene dopo che l&#039;immagine è stata completamente generata. L&#039;immagine viene resa più grande senza perdere significativamente in qualità o dettaglio. Si esprime come un multiplier delle dimensioni dell&#039;immagine generata, da 1 a 4.&lt;br /&gt;
&lt;br /&gt;
* Width/Height: Dimensioni&lt;br /&gt;
&lt;br /&gt;
* Batch count: il numero di gruppi in cui i dati vengono divisi durante l&#039;elaborazione. Più batch count può significare una maggiore divisione dei dati durante il processo.&lt;br /&gt;
&lt;br /&gt;
* Batch size: quanti dati vengono elaborati contemporaneamente in ciascun gruppo. Un batch size più grande può accelerare il processo ma richiedere più memoria, mentre un batch size più piccolo può richiedere più tempo ma portare a risultati più precisi.&lt;br /&gt;
&lt;br /&gt;
* CFG Scale (Classifier Free Guidance Scale)&lt;br /&gt;
&lt;br /&gt;
* Seed: Un numero che inizializza il generatore di numeri casuali. Utilizzare lo stesso seed con gli stessi parametri di input produrrà sempre la stessa immagine. È utile per la riproducibilità o per fare piccoli aggiustamenti su un&#039;immagine esistente.&lt;br /&gt;
=Tecniche=&lt;br /&gt;
*[[TextualInversion]]&lt;br /&gt;
*[[Hypernetworks]]&lt;br /&gt;
*[[LoRA]]&lt;br /&gt;
[[File:Screenshot (378).png|nessuno|miniatura|868x868px|Confronto tra le varie tecniche di personalizzazione]]&lt;br /&gt;
&lt;br /&gt;
= Sperimentazioni =&lt;br /&gt;
Per effettuare un&#039;analisi bilanciata utilizzeremo gli stessi due metri di giudizio per valutare gli output:&lt;br /&gt;
&lt;br /&gt;
* Inception Score&lt;br /&gt;
* Visual Inspection by GPT4&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Denoising Strength =&lt;br /&gt;
Questo parametro si riferisce all&#039;intensità della &#039;&#039;&#039;riduzione del rumore&#039;&#039;&#039; applicata a un&#039;immagine. Il &amp;quot;rumore&amp;quot; è il termine usato per descrivere &#039;&#039;&#039;variazioni casuali e non desiderate&#039;&#039;&#039; nei livelli di luminosità o colore di un&#039;immagine, che possono renderla &#039;&#039;&#039;granulosa&#039;&#039;&#039; o &#039;&#039;&#039;offuscata&#039;&#039;&#039; e possono distorcere i dettagli.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
(Le sperimentazioni iniziano dopo il valore 0, poiché non si sta fornendo al modello l&#039;opportunità di &amp;quot;pulire&amp;quot; o trasformare il rumore in un&#039;immagine coerente basata sul prompt fornito)&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:Cooking_1.png|miniatura|200x200px|Denoising Strength = 0,1]]&lt;br /&gt;
|[[File:Cooking_2.png|miniatura|200x200px|Denoising Strength = 0,3]]&lt;br /&gt;
|[[File:Cooking_3.png|miniatura|200x200px|Denoising Strength = 0,7]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Impostando il Denoising Strenght a &amp;quot;0,1&amp;quot;, si nota un&#039;elevata quantità di rumore che rende indefiniti sia i dettagli che le sagome degli elementi a schermo. Aumentando de facto il valore del parametro si può osservare nettamente la differenza e l&#039;efficacia fra il valore intermedio (0,3) e quello iniziale, fino ad arrivare ad una qualità più che sufficiente impostando il parametro a &amp;quot;0,7&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
==Visual inspection by ChatGPT4==&lt;br /&gt;
Qui di seguito ci sarà una descrizione di ChatGPT4 sulla qualità delle immagini, in modo da comprendere se il modello riesca a individuare rumore e artefatti.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;&amp;lt;Le tre immagini mostrano una sequenza di azioni in una cucina, con un uomo che sembra impegnato nella preparazione di un piatto di carne. Nella prima immagine, il cuoco sta flambando la carne, creando un effetto visivo spettacolare con le fiamme che si alzano dalla padella. Nella seconda, appare concentrato nel girare o condire la carne, mentre nella terza è intento a cucinare, forse verificando la cottura o aggiungendo altri ingredienti.&lt;br /&gt;
Ogni immagine ha una qualità elevata, con dettagli nitidi e colori vivaci che catturano bene la scena della cucina. L&#039;illuminazione è ben gestita, evidenziando le azioni del cuoco e dando vita agli alimenti in preparazione. La composizione è dinamica e sembra che ci sia stata attenzione nel posizionare ogni elemento per creare una scena armoniosa che guida l&#039;occhio verso il soggetto principale senza distrazioni superflue.&lt;br /&gt;
Non si notano artefatti che suggeriscono una manipolazione digitale e le immagini trasmettono un senso di autenticità e professionalità. Ciò suggerisce che probabilmente sono state scattate durante una vera sessione di cucina e che fanno parte di una serie tematica ben pianificata. In sintesi, si tratta di una rappresentazione coerente e accattivante del processo culinario in azione.&amp;gt;&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dalla descrizione fornita, si nota come ChatGPT4 non riesca ad individuare le differenze sostanziali presenti fra le tre immagini, dimostrando comunque la capacità di saper descrivere il contesto in modo eccellente.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: CFG Scale =&lt;br /&gt;
Questo parametro controlla quanto fedelmente il processo di generazione delle immagini &#039;&#039;&#039;segue&#039;&#039;&#039; il prompt di testo fornito. Un valore più alto del CFG Scale significa che l&#039;immagine generata sarà più &#039;&#039;&#039;aderente&#039;&#039;&#039; al testo di input, ossia seguirà più strettamente le indicazioni date. In contrasto, un valore più basso dà al modello più libertà di &#039;&#039;&#039;inventare&#039;&#039;&#039; o di essere &#039;&#039;&#039;creativo&#039;&#039;&#039;, portando a risultati che possono &#039;&#039;&#039;deviare&#039;&#039;&#039; di più dal prompt originale.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:CookingCFG2.png|miniatura|200x200px|CFG = 1]]&lt;br /&gt;
|[[File:CookingCFG1.png|miniatura|200x200px|CFG = 3]]&lt;br /&gt;
|[[File:Cooking_3.png|miniatura|200x200px|CFG = 15]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Impostando il parametro al suo valore minimo si nota come il modello segua ben poco il prompt fornito. Viene presentato un ragazzo e non un uomo, situato in un posto che ricorda appena una cucina, mentre sta cucinando del cibo che ricorda vagamente la carne. Con un valore pari a &amp;quot;3&amp;quot;, il setting è già interamente riconoscibile. In questo caso sono solo le azioni che vengono rappresentate a schermo ad essere poco chiare, poiché si nota un uomo che ha messo una fetta di carne in un forno a legna. L&#039;ultima immagine mostra un contesto totalmente credibile: sia l&#039;ambiente che le azioni sono coerenti con il prompt fornito, benché gli unici difetti facilmente visibili sono gli oggetti che l&#039;uomo tiene in mano per cucinare, essendo poco definiti.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Share Attention in Batch =&lt;br /&gt;
Il parametro &amp;quot;&#039;&#039;&#039;Share attention in batch&#039;&#039;&#039;&amp;quot; è una funzionalità dove l&#039;attenzione del modello, ovvero la parte che il modello &amp;quot;considera&amp;quot; più importante durante la generazione dell&#039;immagine, viene &#039;&#039;&#039;condivisa&#039;&#039;&#039; o &#039;&#039;&#039;sincronizzata&#039;&#039;&#039; tra le immagini in un batch. Quando si generano &#039;&#039;&#039;più immagini contemporaneamente (un batch)&#039;&#039;&#039;, questo parametro fa in modo che tutte le immagini nel batch diano priorità a parti simili dell&#039;input, o che le caratteristiche stilistiche siano &#039;&#039;&#039;coerenti&#039;&#039;&#039; tra di loro. Per esempio, se si stanno generando immagini di volti e si vuole che l&#039;attenzione sia focalizzata sugli occhi per tutti i volti nel batch, attivare questa opzione potrebbe aiutare a garantire che tutti i volti generati abbiano occhi ben definiti e uno stile simile. Questo può essere particolarmente utile quando l&#039;obiettivo è creare una serie di immagini che devono essere visivamente coerenti l&#039;una con l&#039;altra.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:Cookingstyle1.png|miniatura|200x200px|SAIB = off]]&lt;br /&gt;
|[[File:Cookingstyle2.png|miniatura|200x200px|SAIB = on]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Hires steps =&lt;br /&gt;
Questo parametro si riferisce ai &#039;&#039;&#039;passaggi aggiuntivi&#039;&#039;&#039; di elaborazione che vengono eseguiti per &#039;&#039;&#039;rifinire&#039;&#039;&#039; l&#039;immagine dopo la sua creazione iniziale. Aumentare l&#039;Hire ssteps può migliorare la qualità dell&#039;immagine, ma &#039;&#039;&#039;rallenterà&#039;&#039;&#039; anche il processo di generazione.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on, &#039;&#039;&#039;the steak is being cooked on a pan&#039;&#039;&#039;&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:CookingHS1.png|miniatura|200x200px|Hire steps = 0]]&lt;br /&gt;
|[[File:CookingHS3.png|miniatura|200x200px|Hire steps = 100]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
In questa sperimentazione si notano poche differenze fra un&#039;immagine e l&#039;altra; fra l&#039;assenza del parametro e il suo valore massimo. L&#039;unico difetto individuabile si trova nella prima immagine dove l&#039;uomo sta cercando di cuocere la carne senza una padella.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: SelfAttentionGuidance Integrated =&lt;br /&gt;
Questa tecnica è progettata per rendere il processo di generazione delle immagini &#039;&#039;&#039;più semplice e veloce&#039;&#039;&#039; per l&#039;utente, migliorando allo stesso tempo la &#039;&#039;&#039;qualità&#039;&#039;&#039; delle immagini prodotte. La funzionalità integrata della &amp;quot;self attention guidance&amp;quot; può aiutare a creare immagini che appaiono &#039;&#039;&#039;più realistiche&#039;&#039;&#039; e con oggetti &#039;&#039;&#039;meglio definiti&#039;&#039;&#039; senza che l&#039;utente debba effettuare configurazioni complesse o &#039;&#039;&#039;passaggi supplementari&#039;&#039;&#039;.&lt;br /&gt;
Il termine &amp;quot;&#039;&#039;&#039;Scale&#039;&#039;&#039;&amp;quot; si riferisce all&#039;intensità con cui la guida basata sull&#039;auto-attenzione viene applicata durante il processo di generazione. Una &amp;quot;Scale&amp;quot; maggiore implica &#039;&#039;&#039;un&#039;adesione più forte al prompt testuale&#039;&#039;&#039; e può portare a immagini più &#039;&#039;&#039;dettagliate e coerenti con l&#039;input&#039;&#039;&#039;, anche se potrebbe ridurre la diversità delle immagini generate.&lt;br /&gt;
Il parametro &amp;quot;&#039;&#039;&#039;Blur Sigma&#039;&#039;&#039;&amp;quot;, invece, è associato al &#039;&#039;&#039;grado di sfocatura&#039;&#039;&#039; che viene applicato alle regioni selezionate di un&#039;immagine. Questo processo agisce dove le aree con maggiore auto-attenzione — ovvero quelle parti dell&#039;immagine che il modello riconosce come più importanti o informative — vengono &#039;&#039;&#039;sfocate&#039;&#039;&#039; leggermente. L&#039;idea è che &#039;&#039;&#039;enfatizzando&#039;&#039;&#039; il lavoro del modello su queste aree sfocate, il modello può generare risultati migliori, perfezionando le parti &#039;&#039;&#039;più significative&#039;&#039;&#039; dell&#039;immagine e &#039;&#039;&#039;riducendo&#039;&#039;&#039; potenzialmente il &#039;&#039;&#039;rumore&#039;&#039;&#039; o i &#039;&#039;&#039;dettagli superflui&#039;&#039;&#039; nelle regioni meno importanti.&lt;br /&gt;
I valori di default sono i seguenti: &amp;lt;&amp;lt;&#039;&#039;&#039;Scale = 0,5&#039;&#039;&#039;&amp;gt;&amp;gt; - &amp;lt;&amp;lt;&#039;&#039;&#039;Blur sigma = 2&#039;&#039;&#039;&amp;gt;&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on, &#039;&#039;&#039;the steak is being cooked on a pan&#039;&#039;&#039;&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:SAG_none_-_default.jpg|miniatura|200x200px|Tecnica omessa e valori default]]&lt;br /&gt;
|[[File:SAG_Scale.jpg|miniatura|200x200px|SAG Scale (da sinistra): -2; 1; 5]]&lt;br /&gt;
|[[File:SAG_BS.jpg|miniatura|200x200px|SAG BS (da sinistra): 0,1; 5; 10]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Nella prima immagine si osserva il confronto tra l&#039;immagine generata senza la tecnica del SAG e quella generata con quest&#039;ultima. Si evidenzia come l&#039;immagine generata con la tecnica con valori impostati di default sia di qualità inferiore alla prima, suggerendo che bisogna regolare i parametri di &amp;quot;scale&amp;quot; e di &amp;quot;blur sigma&amp;quot;. Per quanto riguarda le immagini generate variando solo il parametro di scale, si nota come si ottengano dei pessimi risultati impostando dei valori sia troppo bassi che troppo alti, e che quindi sia necessario lavorare nei valori intermedi (i risultati cambiano in base alla complessità del prompt). Relativamente al parametro di Blur sigma, si notano poche differenze fra le tre immagini, benché ci siano errori evidenti sul modo in cui l&#039;uomo tenga in mano degli oggetti difficilmente identificabili, soprattutto nei valori &amp;quot;0,1&amp;quot; e &amp;quot;10&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
=Altri componenti=&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:altrefunzioni.png|miniatura|500x500px|Tecniche]]&lt;br /&gt;
|}&lt;br /&gt;
==&#039;&#039;&#039;ControlNet&#039;&#039;&#039;== &lt;br /&gt;
Un modello di &#039;&#039;&#039;rete neurale&#039;&#039;&#039; progettato per controllare i modelli di Stable Diffusion, fornendo agli utenti un &#039;&#039;&#039;controllo dettagliato&#039;&#039;&#039; sugli output dei modelli di diffusione nelle attività di generazione di testo in immagine. ControlNet è una struttura di rete neurale che consente &#039;&#039;&#039;l&#039;aggiunta di condizioni aggiuntive&#039;&#039;&#039; per influenzare l&#039;output dei modelli di diffusione. Queste condizioni possono assumere molte forme, come [[Edge maps]], [[Depth maps]], e [[Semantic segmentations]]. L&#039;uso di ControlNet su Stable Diffusion offre numerosi vantaggi. Consente un controllo preciso sulla semantica e sulle caratteristiche del contenuto generato, consentendo la generazione di output più &#039;&#039;&#039;accurati&#039;&#039;&#039; e &#039;&#039;&#039;personalizzati&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
[[File:Controlnet2.png|600px]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;DynamicThresholding (CFG-Fix)&#039;&#039;&#039;==  &lt;br /&gt;
è un &#039;&#039;&#039;filtro&#039;&#039;&#039; per migliorare le immagini. Aiuta a risolvere &#039;&#039;&#039;problemi di colore&#039;&#039;&#039; quando si usano &#039;&#039;&#039;impostazioni più alte&#039;&#039;&#039;. Queste ultime, si riferiscono a valori maggiori o livelli superiori, significa utilizzare valori più grandi per &#039;&#039;&#039;migliorare&#039;&#039;&#039; l’immagine. Ad esempio, se un’immagine è leggermente sbiadita e la si vuole rendere più nitida, è possibile aumentare determinati parametri. Tuttavia, a volte, quando si usano valori troppo alti, potrebbero verificarsi problemi di colore. Ecco dove entra in gioco CFG-Fix: risolve questi problemi di colore quando si utilizzano impostazioni elevate.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;FreeU&#039;&#039;&#039;== &lt;br /&gt;
Un componente aggiuntivo di Stable Diffusion che migliora la qualità dell&#039;immagine modificando il &#039;&#039;&#039;denoiser&#039;&#039;&#039; del modello. Il miglioramento avviene senza costi: nessun addestramento, nessun parametro aggiuntivo introdotto e nessun aumento della memoria o del tempo di campionamento.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A 25 year old mage, dress, full body, magic, lightning, rim light, moon, night&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra e utilizzo FreeU.&lt;br /&gt;
&lt;br /&gt;
[[File:maga.png|300px]] [[File:magaFreeU.png|300px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;HyperTile&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;metodo&#039;&#039;&#039; che ottimizza il livello di &#039;&#039;&#039;auto-attenzione&#039;&#039;&#039; all’interno dei modelli Stable-Diffusion. Questo porta a una &#039;&#039;&#039;riduzione del tempo di calcolo&#039;&#039;&#039; che varia da 1 a 4 volte, a seconda della &#039;&#039;&#039;risoluzione iniziale&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A man eating pasta&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra (&#039;&#039;&#039;15 sec&#039;&#039;&#039;) e utilizzo di Hypertile (&#039;&#039;&#039;7 sec&#039;&#039;&#039;)&lt;br /&gt;
&lt;br /&gt;
[[File:Uomopasta1.png|400px]] [[File:Uomopasta2.png|400px]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;Kohya HRFix&#039;&#039;&#039;== &lt;br /&gt;
è un’&#039;&#039;&#039;estensione&#039;&#039;&#039; utilizzata nei modelli Stable-Diffusion per migliorare la risoluzione delle immagini generate. Questa estensione è stata sviluppata da Kohya e ha lo scopo di &#039;&#039;&#039;limitare i problemi di clonazione/crollo&#039;&#039;&#039; nelle immagini ad alta risoluzione. Tuttavia, l’uso di Kohya HRFix può ridurre la varietà delle immagini generate, rendendole più identiche tra loro. Le impostazioni ottimali per Kohya HRFix possono variare a seconda delle esigenze specifiche dell’utente.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A potrait of a white cat, cozy house&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra e utilizzo Kohya HRFix.&lt;br /&gt;
&lt;br /&gt;
[[File:Gattobianco1.png|300px]] [[File:Gattokoya.png|500px]]&lt;br /&gt;
&lt;br /&gt;
Possiamo notare che nonostante presenti risultati migliori per quanto riguarda la risoluzione e dei dettagli, Kohya ha anche il contro di alterare leggermente l&#039;interpretazione del prompt il che, per artisti dedicati e che curano ogni dettaglio della generazione, può essere un grosso dealbreaker.&lt;br /&gt;
[[File:Kohya.png|centro|miniatura|923x923px|Confronto di tempistiche e risultati con e senza Kohya XRFix. fonte: https://www.reddit.com/r/StableDiffusion/comments/17z951a/kohyas_deepshrink_highres_fix_is_amazing_produces/]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;LatentModifier&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;componente&#039;&#039;&#039; che &#039;&#039;&#039;modifica i valori latenti&#039;&#039;&#039; durante il &#039;&#039;&#039;processo di diffusione&#039;&#039;&#039; in un modello di generazione di immagini. Queste modifiche possono influenzare vari aspetti dell’immagine finale, come la &#039;&#039;&#039;nitidezza&#039;&#039;&#039;, il &#039;&#039;&#039;contrasto&#039;&#039;&#039; e il &#039;&#039;&#039;rumore&#039;&#039;&#039;. Ci sono parametri &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A potrait of a white cat, cozy house&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra e utilizzo LatentModifier.&lt;br /&gt;
&lt;br /&gt;
[[File:Gattobianco1.png|300px]] [[File:Latentgatto.png|300px]]&lt;br /&gt;
&lt;br /&gt;
=== Sharpness Multiplier: ===&lt;br /&gt;
&#039;&#039;&#039;Prompt: a cute kitten smoking a cigar&#039;&#039;&#039;[[File:Image (3).png|miniatura|321x321px|[[File:Image (4).png|miniatura|341x341px|+100]]-100|nessuno]]&lt;br /&gt;
&lt;br /&gt;
=== Tonemap Multiplier: ===&lt;br /&gt;
[[File:Screenshot (367).png|miniatura|851x851px|Tonemap Multiplier: 100|sinistra]]&lt;br /&gt;
[[File:Screenshot (368).png|miniatura|852x852px|Miglior risultato ottenuto dalla sperimentazione e relativi parametri|nessuno]]&lt;br /&gt;
==&#039;&#039;&#039;MultiDiffusion&#039;&#039;&#039;== &lt;br /&gt;
&lt;br /&gt;
è un &#039;&#039;&#039;framework&#039;&#039;&#039; unificato che consente la generazione di immagini &#039;&#039;&#039;versatili&#039;&#039;&#039; e &#039;&#039;&#039;controllabili&#039;&#039;&#039;, utilizzando un modello di diffusione text-to-image pre-addestrato. Al centro dell’approccio c’è un nuovo processo di generazione, basato su un compito di &#039;&#039;&#039;ottimizzazione&#039;&#039;&#039; che lega insieme &#039;&#039;&#039;più processi&#039;&#039;&#039; di generazione di diffusione con un &#039;&#039;&#039;insieme condiviso di parametri o vincoli&#039;&#039;&#039;. Quindi, invece di utilizzare un&#039;unica immagine di riferimento (prompt), la multidiffusion combina le informazioni da più immagini per creare un&#039;immagine finale più ricca e complessa.&lt;br /&gt;
[[File:Screenshot (377).png|nessuno|miniatura|860x860px]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;Never OOM&#039;&#039;&#039;== &lt;br /&gt;
Parametro puramente tecnico che permette di scaricare sempre i modelli dalla &#039;&#039;&#039;VRAM&#039;&#039;&#039;. Questo può essere utile se si utilizzano &#039;&#039;&#039;più software insieme&#039;&#039;&#039; e si desidera che Stable Diffusion utilizzi meno VRAM e ne dia &#039;&#039;&#039;una parte ad altri software&#039;&#039;&#039;, o quando si utilizzano vecchie estensioni che competono con la VRAM di Stable Diffusion. Non ha impatto sulla generazione. [[Category:strumento]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;Script&#039;&#039;&#039;==&lt;br /&gt;
[[File:script.png|900px]]&lt;br /&gt;
Questa funzione è utilizzata per implementare &#039;&#039;&#039;script personalizzati&#039;&#039;&#039; che possono modificare il &#039;&#039;&#039;comportamento&#039;&#039;&#039; del processo di generazione di immagini.&lt;br /&gt;
*&#039;&#039;&#039;None&#039;&#039;&#039;: Questa è l’opzione predefinita che significa che non viene eseguito alcuno script.&lt;br /&gt;
*&#039;&#039;&#039;Prompt matrix&#039;&#039;&#039;: permette di testare e confrontare le modifiche che i prompt apportano alle immagini generate. Si possono strutturare i prompt in modo che ogni immagine nella matrice abbia un prompt che inizia con una frase comune.Per esempio, una immagine avrà il prompt “una ciotola di frutta, mele”, un’altra avrà “una ciotola di frutta, mele, pere” e così via.&lt;br /&gt;
*&#039;&#039;&#039;Prompts from file or textbox&#039;&#039;&#039;: permette di caricare i prompt da un file o da un textbox. Si può creare un prompt a piacimento, creare un numero x di variazioni su di esso, copiare quel file di testo, e ripetere fino a quando non hai centinaia di mini file di testo.&lt;br /&gt;
*&#039;&#039;&#039;X/Y/Z plot&#039;&#039;&#039;: permette di eseguire test sui propri prompt e impostazioni per vedere i risultati, senza impegnarsi in una generazione di immagini completa. Utilizzando un grafico, si possono confrontare i risultati per vedere quale combinazione di impostazioni funziona meglio.&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=File:Script.png&amp;diff=1564</id>
		<title>File:Script.png</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=File:Script.png&amp;diff=1564"/>
		<updated>2024-03-22T14:43:49Z</updated>

		<summary type="html">&lt;p&gt;Stefano: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Txt2img_(Stable_Diffusion)&amp;diff=1556</id>
		<title>Txt2img (Stable Diffusion)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Txt2img_(Stable_Diffusion)&amp;diff=1556"/>
		<updated>2024-03-22T14:28:31Z</updated>

		<summary type="html">&lt;p&gt;Stefano: /* ControlNet */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Txt2img è un tool di [[Stable Diffusion]] che, come intuibile, genera un&#039;immagine .png basata su un prompt testuale. Il suo ultimo aggiornamento risale al 28 Ottobre 2022.&lt;br /&gt;
&lt;br /&gt;
I parametri di Txt2img non verranno descritti con massimo dettaglio dal momento che la finalità di questa Wiki entry è di fornire delle linee guida comprovate da sperimentazione diretta.&lt;br /&gt;
&lt;br /&gt;
* Il primo obiettivo è ricondurre con praticità il livello di performance riscontrato nel modello alle relative combinazioni di parametri.&lt;br /&gt;
&lt;br /&gt;
* Il secondo obiettivo è creare collegamenti tra ciascun parametro e la corrispondente sezione dell&#039;architettura.&lt;br /&gt;
&lt;br /&gt;
= Link di approfondimento =&lt;br /&gt;
Nel caso si voglia approfondire i setting si può visitare il github relativo alla UI: [https://github.com/AUTOMATIC1111/stable-diffusion-webui]&lt;br /&gt;
&lt;br /&gt;
Nel caso si voglia approfondire l&#039;architettura generale si può visitare il repository: [https://github.com/Stability-AI/stablediffusion]&lt;br /&gt;
&lt;br /&gt;
= Overview dell&#039;interfaccia =&lt;br /&gt;
[[File:Overview_diffusion.png|700x700px]]&lt;br /&gt;
&lt;br /&gt;
* [[Sampling method (Stable Diffusion)|Sampling method]]&lt;br /&gt;
&lt;br /&gt;
* Sampling steps:&lt;br /&gt;
&lt;br /&gt;
-Tra l&#039;1 e i 15 step: l&#039;immagine è relativamente sfocata.&lt;br /&gt;
&lt;br /&gt;
-Tra i 15 e i 25 step: L&#039;immagine è abbastanza chiara e di buona qualità.&lt;br /&gt;
&lt;br /&gt;
-Tra i 25 e i 45: La qualità dell&#039;immagine è molto alta e comprende la texture.&lt;br /&gt;
&lt;br /&gt;
-Dai 45 in poi: La loss function si stabilizza e si osserva una variazione minima nella risoluzione.&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:Sampling step 5.png|miniatura|5 step]]&lt;br /&gt;
![[File:10 step.png|miniatura|10 step]]&lt;br /&gt;
![[File:15 step.png|miniatura|15 step]]&lt;br /&gt;
|}&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:25 step.png|miniatura|25 step]]&lt;br /&gt;
![[File:40 step.png|miniatura|40 step]]&lt;br /&gt;
![[File:60 step.png|miniatura|60 step]]&lt;br /&gt;
|}&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:1 step.png|miniatura|1 step]]&lt;br /&gt;
![[File:150 step.png|miniatura|150 step]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
====== Upscaler: ======&lt;br /&gt;
L&#039;upscaling è il processo di aumentare la risoluzione di un&#039;immagine, cioè di ingrandirla, mantenendo al contempo la qualità visiva il più alta possibile e può essere ottenuto mediante algoritmi di interpolazione e tecniche avanzate di elaborazione delle immagini, che aggiungono dettagli artificiali per migliorare l&#039;aspetto dell&#039;immagine.&lt;br /&gt;
&lt;br /&gt;
- Hires Steps: migliorano la qualità dell&#039;immagine attraverso iterazioni aggiuntive durante il processo di generazione&lt;br /&gt;
&lt;br /&gt;
- Denoising strenght&lt;br /&gt;
&lt;br /&gt;
- Upscale by: L&#039;upscale di solito avviene dopo che l&#039;immagine è stata completamente generata. L&#039;immagine viene resa più grande senza perdere significativamente in qualità o dettaglio. Si esprime come un multiplier delle dimensioni dell&#039;immagine generata, da 1 a 4.&lt;br /&gt;
&lt;br /&gt;
* Width/Height: Dimensioni&lt;br /&gt;
&lt;br /&gt;
* Batch count: il numero di gruppi in cui i dati vengono divisi durante l&#039;elaborazione. Più batch count può significare una maggiore divisione dei dati durante il processo.&lt;br /&gt;
&lt;br /&gt;
* Batch size: quanti dati vengono elaborati contemporaneamente in ciascun gruppo. Un batch size più grande può accelerare il processo ma richiedere più memoria, mentre un batch size più piccolo può richiedere più tempo ma portare a risultati più precisi.&lt;br /&gt;
&lt;br /&gt;
* CFG Scale (Classifier Free Guidance Scale)&lt;br /&gt;
&lt;br /&gt;
* Seed: Un numero che inizializza il generatore di numeri casuali. Utilizzare lo stesso seed con gli stessi parametri di input produrrà sempre la stessa immagine. È utile per la riproducibilità o per fare piccoli aggiustamenti su un&#039;immagine esistente.&lt;br /&gt;
=Tecniche=&lt;br /&gt;
*[[TextualInversion]]&lt;br /&gt;
*[[Hypernetworks]]&lt;br /&gt;
*[[LoRA]]&lt;br /&gt;
&lt;br /&gt;
= Sperimentazioni =&lt;br /&gt;
Per effettuare un&#039;analisi bilanciata utilizzeremo gli stessi due metri di giudizio per valutare gli output:&lt;br /&gt;
&lt;br /&gt;
* Inception Score&lt;br /&gt;
* Visual Inspection by GPT4&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Denoising Strength =&lt;br /&gt;
Questo parametro si riferisce all&#039;intensità della &#039;&#039;&#039;riduzione del rumore&#039;&#039;&#039; applicata a un&#039;immagine. Il &amp;quot;rumore&amp;quot; è il termine usato per descrivere &#039;&#039;&#039;variazioni casuali e non desiderate&#039;&#039;&#039; nei livelli di luminosità o colore di un&#039;immagine, che possono renderla &#039;&#039;&#039;granulosa&#039;&#039;&#039; o &#039;&#039;&#039;offuscata&#039;&#039;&#039; e possono distorcere i dettagli.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
(Le sperimentazioni iniziano dopo il valore 0, poiché non si sta fornendo al modello l&#039;opportunità di &amp;quot;pulire&amp;quot; o trasformare il rumore in un&#039;immagine coerente basata sul prompt fornito)&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:Cooking_1.png|miniatura|200x200px|Denoising Strength = 0,1]]&lt;br /&gt;
|[[File:Cooking_2.png|miniatura|200x200px|Denoising Strength = 0,3]]&lt;br /&gt;
|[[File:Cooking_3.png|miniatura|200x200px|Denoising Strength = 0,7]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Impostando il Denoising Strenght a &amp;quot;0,1&amp;quot;, si nota un&#039;elevata quantità di rumore che rende indefiniti sia i dettagli che le sagome degli elementi a schermo. Aumentando de facto il valore del parametro si può osservare nettamente la differenza e l&#039;efficacia fra il valore intermedio (0,3) e quello iniziale, fino ad arrivare ad una qualità più che sufficiente impostando il parametro a &amp;quot;0,7&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
==Visual inspection by ChatGPT4==&lt;br /&gt;
Qui di seguito ci sarà una descrizione di ChatGPT4 sulla qualità delle immagini, in modo da comprendere se il modello riesca a individuare rumore e artefatti.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;&amp;lt;Le tre immagini mostrano una sequenza di azioni in una cucina, con un uomo che sembra impegnato nella preparazione di un piatto di carne. Nella prima immagine, il cuoco sta flambando la carne, creando un effetto visivo spettacolare con le fiamme che si alzano dalla padella. Nella seconda, appare concentrato nel girare o condire la carne, mentre nella terza è intento a cucinare, forse verificando la cottura o aggiungendo altri ingredienti.&lt;br /&gt;
Ogni immagine ha una qualità elevata, con dettagli nitidi e colori vivaci che catturano bene la scena della cucina. L&#039;illuminazione è ben gestita, evidenziando le azioni del cuoco e dando vita agli alimenti in preparazione. La composizione è dinamica e sembra che ci sia stata attenzione nel posizionare ogni elemento per creare una scena armoniosa che guida l&#039;occhio verso il soggetto principale senza distrazioni superflue.&lt;br /&gt;
Non si notano artefatti che suggeriscono una manipolazione digitale e le immagini trasmettono un senso di autenticità e professionalità. Ciò suggerisce che probabilmente sono state scattate durante una vera sessione di cucina e che fanno parte di una serie tematica ben pianificata. In sintesi, si tratta di una rappresentazione coerente e accattivante del processo culinario in azione.&amp;gt;&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dalla descrizione fornita, si nota come ChatGPT4 non riesca ad individuare le differenze sostanziali presenti fra le tre immagini, dimostrando comunque la capacità di saper descrivere il contesto in modo eccellente.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: CFG Scale =&lt;br /&gt;
Questo parametro controlla quanto fedelmente il processo di generazione delle immagini &#039;&#039;&#039;segue&#039;&#039;&#039; il prompt di testo fornito. Un valore più alto del CFG Scale significa che l&#039;immagine generata sarà più &#039;&#039;&#039;aderente&#039;&#039;&#039; al testo di input, ossia seguirà più strettamente le indicazioni date. In contrasto, un valore più basso dà al modello più libertà di &#039;&#039;&#039;inventare&#039;&#039;&#039; o di essere &#039;&#039;&#039;creativo&#039;&#039;&#039;, portando a risultati che possono &#039;&#039;&#039;deviare&#039;&#039;&#039; di più dal prompt originale.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:CookingCFG2.png|miniatura|200x200px|CFG = 1]]&lt;br /&gt;
|[[File:CookingCFG1.png|miniatura|200x200px|CFG = 3]]&lt;br /&gt;
|[[File:Cooking_3.png|miniatura|200x200px|CFG = 15]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Impostando il parametro al suo valore minimo si nota come il modello segua ben poco il prompt fornito. Viene presentato un ragazzo e non un uomo, situato in un posto che ricorda appena una cucina, mentre sta cucinando del cibo che ricorda vagamente la carne. Con un valore pari a &amp;quot;3&amp;quot;, il setting è già interamente riconoscibile. In questo caso sono solo le azioni che vengono rappresentate a schermo ad essere poco chiare, poiché si nota un uomo che ha messo una fetta di carne in un forno a legna. L&#039;ultima immagine mostra un contesto totalmente credibile: sia l&#039;ambiente che le azioni sono coerenti con il prompt fornito, benché gli unici difetti facilmente visibili sono gli oggetti che l&#039;uomo tiene in mano per cucinare, essendo poco definiti.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Share Attention in Batch =&lt;br /&gt;
Il parametro &amp;quot;&#039;&#039;&#039;Share attention in batch&#039;&#039;&#039;&amp;quot; è una funzionalità dove l&#039;attenzione del modello, ovvero la parte che il modello &amp;quot;considera&amp;quot; più importante durante la generazione dell&#039;immagine, viene &#039;&#039;&#039;condivisa&#039;&#039;&#039; o &#039;&#039;&#039;sincronizzata&#039;&#039;&#039; tra le immagini in un batch. Quando si generano &#039;&#039;&#039;più immagini contemporaneamente (un batch)&#039;&#039;&#039;, questo parametro fa in modo che tutte le immagini nel batch diano priorità a parti simili dell&#039;input, o che le caratteristiche stilistiche siano &#039;&#039;&#039;coerenti&#039;&#039;&#039; tra di loro. Per esempio, se si stanno generando immagini di volti e si vuole che l&#039;attenzione sia focalizzata sugli occhi per tutti i volti nel batch, attivare questa opzione potrebbe aiutare a garantire che tutti i volti generati abbiano occhi ben definiti e uno stile simile. Questo può essere particolarmente utile quando l&#039;obiettivo è creare una serie di immagini che devono essere visivamente coerenti l&#039;una con l&#039;altra.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:Cookingstyle1.png|miniatura|200x200px|SAIB = off]]&lt;br /&gt;
|[[File:Cookingstyle2.png|miniatura|200x200px|SAIB = on]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Hires steps =&lt;br /&gt;
Questo parametro si riferisce ai &#039;&#039;&#039;passaggi aggiuntivi&#039;&#039;&#039; di elaborazione che vengono eseguiti per &#039;&#039;&#039;rifinire&#039;&#039;&#039; l&#039;immagine dopo la sua creazione iniziale. Aumentare l&#039;Hire ssteps può migliorare la qualità dell&#039;immagine, ma &#039;&#039;&#039;rallenterà&#039;&#039;&#039; anche il processo di generazione.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on, &#039;&#039;&#039;the steak is being cooked on a pan&#039;&#039;&#039;&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:CookingHS1.png|miniatura|200x200px|Hire steps = 0]]&lt;br /&gt;
|[[File:CookingHS3.png|miniatura|200x200px|Hire steps = 100]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
In questa sperimentazione si notano poche differenze fra un&#039;immagine e l&#039;altra; fra l&#039;assenza del parametro e il suo valore massimo. L&#039;unico difetto individuabile si trova nella prima immagine dove l&#039;uomo sta cercando di cuocere la carne senza una padella.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: SelfAttentionGuidance Integrated =&lt;br /&gt;
Questa tecnica è progettata per rendere il processo di generazione delle immagini &#039;&#039;&#039;più semplice e veloce&#039;&#039;&#039; per l&#039;utente, migliorando allo stesso tempo la &#039;&#039;&#039;qualità&#039;&#039;&#039; delle immagini prodotte. La funzionalità integrata della &amp;quot;self attention guidance&amp;quot; può aiutare a creare immagini che appaiono &#039;&#039;&#039;più realistiche&#039;&#039;&#039; e con oggetti &#039;&#039;&#039;meglio definiti&#039;&#039;&#039; senza che l&#039;utente debba effettuare configurazioni complesse o &#039;&#039;&#039;passaggi supplementari&#039;&#039;&#039;.&lt;br /&gt;
Il termine &amp;quot;&#039;&#039;&#039;Scale&#039;&#039;&#039;&amp;quot; si riferisce all&#039;intensità con cui la guida basata sull&#039;auto-attenzione viene applicata durante il processo di generazione. Una &amp;quot;Scale&amp;quot; maggiore implica &#039;&#039;&#039;un&#039;adesione più forte al prompt testuale&#039;&#039;&#039; e può portare a immagini più &#039;&#039;&#039;dettagliate e coerenti con l&#039;input&#039;&#039;&#039;, anche se potrebbe ridurre la diversità delle immagini generate.&lt;br /&gt;
Il parametro &amp;quot;&#039;&#039;&#039;Blur Sigma&#039;&#039;&#039;&amp;quot;, invece, è associato al &#039;&#039;&#039;grado di sfocatura&#039;&#039;&#039; che viene applicato alle regioni selezionate di un&#039;immagine. Questo processo agisce dove le aree con maggiore auto-attenzione — ovvero quelle parti dell&#039;immagine che il modello riconosce come più importanti o informative — vengono &#039;&#039;&#039;sfocate&#039;&#039;&#039; leggermente. L&#039;idea è che &#039;&#039;&#039;enfatizzando&#039;&#039;&#039; il lavoro del modello su queste aree sfocate, il modello può generare risultati migliori, perfezionando le parti &#039;&#039;&#039;più significative&#039;&#039;&#039; dell&#039;immagine e &#039;&#039;&#039;riducendo&#039;&#039;&#039; potenzialmente il &#039;&#039;&#039;rumore&#039;&#039;&#039; o i &#039;&#039;&#039;dettagli superflui&#039;&#039;&#039; nelle regioni meno importanti.&lt;br /&gt;
I valori di default sono i seguenti: &amp;lt;&amp;lt;&#039;&#039;&#039;Scale = 0,5&#039;&#039;&#039;&amp;gt;&amp;gt; - &amp;lt;&amp;lt;&#039;&#039;&#039;Blur sigma = 2&#039;&#039;&#039;&amp;gt;&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on, &#039;&#039;&#039;the steak is being cooked on a pan&#039;&#039;&#039;&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:SAG_none_-_default.jpg|miniatura|200x200px|Tecnica omessa e valori default]]&lt;br /&gt;
|[[File:SAG_Scale.jpg|miniatura|200x200px|SAG Scale (da sinistra): -2; 1; 5]]&lt;br /&gt;
|[[File:SAG_BS.jpg|miniatura|200x200px|SAG BS (da sinistra): 0,1; 5; 10]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Nella prima immagine si osserva il confronto tra l&#039;immagine generata senza la tecnica del SAG e quella generata con quest&#039;ultima. Si evidenzia come l&#039;immagine generata con la tecnica con valori impostati di default sia di qualità inferiore alla prima, suggerendo che bisogna regolare i parametri di &amp;quot;scale&amp;quot; e di &amp;quot;blur sigma&amp;quot;. Per quanto riguarda le immagini generate variando solo il parametro di scale, si nota come si ottengano dei pessimi risultati impostando dei valori sia troppo bassi che troppo alti, e che quindi sia necessario lavorare nei valori intermedi (i risultati cambiano in base alla complessità del prompt). Relativamente al parametro di Blur sigma, si notano poche differenze fra le tre immagini, benché ci siano errori evidenti sul modo in cui l&#039;uomo tenga in mano degli oggetti difficilmente identificabili, soprattutto nei valori &amp;quot;0,1&amp;quot; e &amp;quot;10&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
=Altri componenti=&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:altrefunzioni.png|miniatura|500x500px|Tecniche]]&lt;br /&gt;
|}&lt;br /&gt;
==&#039;&#039;&#039;ControlNet&#039;&#039;&#039;== &lt;br /&gt;
Un modello di &#039;&#039;&#039;rete neurale&#039;&#039;&#039; progettato per controllare i modelli di Stable Diffusion, fornendo agli utenti un &#039;&#039;&#039;controllo dettagliato&#039;&#039;&#039; sugli output dei modelli di diffusione nelle attività di generazione di testo in immagine. ControlNet è una struttura di rete neurale che consente &#039;&#039;&#039;l&#039;aggiunta di condizioni aggiuntive&#039;&#039;&#039; per influenzare l&#039;output dei modelli di diffusione. Queste condizioni possono assumere molte forme, come [[Edge maps]], [[Depth maps]], e [[Semantic segmentations]]. L&#039;uso di ControlNet su Stable Diffusion offre numerosi vantaggi. Consente un controllo preciso sulla semantica e sulle caratteristiche del contenuto generato, consentendo la generazione di output più &#039;&#039;&#039;accurati&#039;&#039;&#039; e &#039;&#039;&#039;personalizzati&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
[[File:Controlnet2.png|600px]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;DynamicThresholding (CFG-Fix)&#039;&#039;&#039;==  &lt;br /&gt;
è un &#039;&#039;&#039;filtro&#039;&#039;&#039; per migliorare le immagini. Aiuta a risolvere &#039;&#039;&#039;problemi di colore&#039;&#039;&#039; quando si usano &#039;&#039;&#039;impostazioni più alte&#039;&#039;&#039;. Queste ultime, si riferiscono a valori maggiori o livelli superiori, significa utilizzare valori più grandi per &#039;&#039;&#039;migliorare&#039;&#039;&#039; l’immagine. Ad esempio, se un’immagine è leggermente sbiadita e la si vuole rendere più nitida, è possibile aumentare determinati parametri. Tuttavia, a volte, quando si usano valori troppo alti, potrebbero verificarsi problemi di colore. Ecco dove entra in gioco CFG-Fix: risolve questi problemi di colore quando si utilizzano impostazioni elevate.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;FreeU&#039;&#039;&#039;== &lt;br /&gt;
Un componente aggiuntivo di Stable Diffusion che migliora la qualità dell&#039;immagine modificando il &#039;&#039;&#039;denoiser&#039;&#039;&#039; del modello. Il miglioramento avviene senza costi: nessun addestramento, nessun parametro aggiuntivo introdotto e nessun aumento della memoria o del tempo di campionamento.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A 25 year old mage, dress, full body, magic, lightning, rim light, moon, night&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra e utilizzo FreeU.&lt;br /&gt;
&lt;br /&gt;
[[File:maga.png|300px]] [[File:magaFreeU.png|300px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;HyperTile&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;metodo&#039;&#039;&#039; che ottimizza il livello di &#039;&#039;&#039;auto-attenzione&#039;&#039;&#039; all’interno dei modelli Stable-Diffusion. Questo porta a una &#039;&#039;&#039;riduzione del tempo di calcolo&#039;&#039;&#039; che varia da 1 a 4 volte, a seconda della &#039;&#039;&#039;risoluzione iniziale&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A man eating pasta&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra (&#039;&#039;&#039;15 sec&#039;&#039;&#039;) e utilizzo di Hypertile (&#039;&#039;&#039;7 sec&#039;&#039;&#039;)&lt;br /&gt;
&lt;br /&gt;
[[File:Uomopasta1.png|400px]] [[File:Uomopasta2.png|400px]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;Kohya HRFix&#039;&#039;&#039;== &lt;br /&gt;
è un’&#039;&#039;&#039;estensione&#039;&#039;&#039; utilizzata nei modelli Stable-Diffusion per migliorare la risoluzione delle immagini generate. Questa estensione è stata sviluppata da Kohya e ha lo scopo di &#039;&#039;&#039;limitare i problemi di clonazione/crollo&#039;&#039;&#039; nelle immagini ad alta risoluzione. Tuttavia, l’uso di Kohya HRFix può ridurre la varietà delle immagini generate, rendendole più identiche tra loro. Le impostazioni ottimali per Kohya HRFix possono variare a seconda delle esigenze specifiche dell’utente.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A potrait of a white cat, cozy house&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra e utilizzo Kohya HRFix.&lt;br /&gt;
&lt;br /&gt;
[[File:Gattobianco1.png|300px]] [[File:Gattokoya.png|500px]]&lt;br /&gt;
&lt;br /&gt;
Possiamo notare che nonostante presenti risultati migliori per quanto riguarda la risoluzione e dei dettagli, Kohya ha anche il contro di alterare leggermente l&#039;interpretazione del prompt il che, per artisti dedicati e che curano ogni dettaglio della generazione, può essere un grosso dealbreaker.&lt;br /&gt;
[[File:Kohya.png|centro|miniatura|923x923px|Confronto di tempistiche e risultati con e senza Kohya XRFix. fonte: https://www.reddit.com/r/StableDiffusion/comments/17z951a/kohyas_deepshrink_highres_fix_is_amazing_produces/]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;LatentModifier&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;componente&#039;&#039;&#039; che &#039;&#039;&#039;modifica i valori latenti&#039;&#039;&#039; durante il &#039;&#039;&#039;processo di diffusione&#039;&#039;&#039; in un modello di generazione di immagini. Queste modifiche possono influenzare vari aspetti dell’immagine finale, come la &#039;&#039;&#039;nitidezza&#039;&#039;&#039;, il &#039;&#039;&#039;contrasto&#039;&#039;&#039; e il &#039;&#039;&#039;rumore&#039;&#039;&#039;. Ci sono parametri &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A potrait of a white cat, cozy house&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra e utilizzo LatentModifier.&lt;br /&gt;
&lt;br /&gt;
[[File:Gattobianco1.png|300px]] [[File:Latentgatto.png|300px]]&lt;br /&gt;
&#039;&#039;&#039;Prompt: a cute kitten smoking a cigar&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: a cute kitten smoking a cigar&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
=== Sharpness Multiplier: ===&lt;br /&gt;
[[File:Image (3).png|sinistra|miniatura|313x313px|-100]]&lt;br /&gt;
[[File:Image (4).png|miniatura|326x326px|+100|centro]]&lt;br /&gt;
[[File:Screenshot (367).png|miniatura|851x851px|Tonemap Multiplier: 100|sinistra]]&lt;br /&gt;
[[File:Screenshot (368).png|miniatura|852x852px|Miglior risultato ottenuto dalla sperimentazione e relativi parametri|nessuno]]&lt;br /&gt;
==&#039;&#039;&#039;MultiDiffusion&#039;&#039;&#039;== &lt;br /&gt;
&lt;br /&gt;
è un &#039;&#039;&#039;framework&#039;&#039;&#039; unificato che consente la generazione di immagini &#039;&#039;&#039;versatili&#039;&#039;&#039; e &#039;&#039;&#039;controllabili&#039;&#039;&#039;, utilizzando un modello di diffusione text-to-image pre-addestrato. Al centro dell’approccio c’è un nuovo processo di generazione, basato su un compito di &#039;&#039;&#039;ottimizzazione&#039;&#039;&#039; che lega insieme &#039;&#039;&#039;più processi&#039;&#039;&#039; di generazione di diffusione con un &#039;&#039;&#039;insieme condiviso di parametri o vincoli&#039;&#039;&#039;. Quindi, invece di utilizzare un&#039;unica immagine di riferimento (prompt), la multidiffusion combina le informazioni da più immagini per creare un&#039;immagine finale più ricca e complessa.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;Never OOM&#039;&#039;&#039;== &lt;br /&gt;
Parametro puramente tecnico che permette di scaricare sempre i modelli dalla &#039;&#039;&#039;VRAM&#039;&#039;&#039;. Questo può essere utile se si utilizzano &#039;&#039;&#039;più software insieme&#039;&#039;&#039; e si desidera che Stable Diffusion utilizzi meno VRAM e ne dia &#039;&#039;&#039;una parte ad altri software&#039;&#039;&#039;, o quando si utilizzano vecchie estensioni che competono con la VRAM di Stable Diffusion. Non ha impatto sulla generazione. [[Category:strumento]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;Script&#039;&#039;&#039;==&lt;br /&gt;
Questa funzione è utilizzata per implementare &#039;&#039;&#039;script personalizzati&#039;&#039;&#039; che possono modificare il &#039;&#039;&#039;comportamento&#039;&#039;&#039; del processo di generazione di immagini.&lt;br /&gt;
*&#039;&#039;&#039;None&#039;&#039;&#039;: Questa è l’opzione predefinita che significa che non viene eseguito alcuno script.&lt;br /&gt;
*&#039;&#039;&#039;Prompt matrix&#039;&#039;&#039;: permette di testare e confrontare le modifiche che i prompt apportano alle immagini generate. Si possono strutturare i prompt in modo che ogni immagine nella matrice abbia un prompt che inizia con una frase comune.Per esempio, una immagine avrà il prompt “una ciotola di frutta, mele”, un’altra avrà “una ciotola di frutta, mele, pere” e così via.&lt;br /&gt;
*&#039;&#039;&#039;Prompts from file or textbox&#039;&#039;&#039;: permette di caricare i prompt da un file o da un textbox. Si può creare un prompt a piacimento, creare un numero x di variazioni su di esso, copiare quel file di testo, e ripetere fino a quando non hai centinaia di mini file di testo.&lt;br /&gt;
*&#039;&#039;&#039;X/Y/Z plot&#039;&#039;&#039;: permette di eseguire test sui propri prompt e impostazioni per vedere i risultati, senza impegnarsi in una generazione di immagini completa. Utilizzando un grafico, si possono confrontare i risultati per vedere quale combinazione di impostazioni funziona meglio.&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=File:Controlnet2.png&amp;diff=1555</id>
		<title>File:Controlnet2.png</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=File:Controlnet2.png&amp;diff=1555"/>
		<updated>2024-03-22T14:28:06Z</updated>

		<summary type="html">&lt;p&gt;Stefano: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Txt2img_(Stable_Diffusion)&amp;diff=1553</id>
		<title>Txt2img (Stable Diffusion)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Txt2img_(Stable_Diffusion)&amp;diff=1553"/>
		<updated>2024-03-22T14:26:07Z</updated>

		<summary type="html">&lt;p&gt;Stefano: /* MultiDiffusion */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Txt2img è un tool di [[Stable Diffusion]] che, come intuibile, genera un&#039;immagine .png basata su un prompt testuale. Il suo ultimo aggiornamento risale al 28 Ottobre 2022.&lt;br /&gt;
&lt;br /&gt;
I parametri di Txt2img non verranno descritti con massimo dettaglio dal momento che la finalità di questa Wiki entry è di fornire delle linee guida comprovate da sperimentazione diretta.&lt;br /&gt;
&lt;br /&gt;
* Il primo obiettivo è ricondurre con praticità il livello di performance riscontrato nel modello alle relative combinazioni di parametri.&lt;br /&gt;
&lt;br /&gt;
* Il secondo obiettivo è creare collegamenti tra ciascun parametro e la corrispondente sezione dell&#039;architettura.&lt;br /&gt;
&lt;br /&gt;
= Link di approfondimento =&lt;br /&gt;
Nel caso si voglia approfondire i setting si può visitare il github relativo alla UI: [https://github.com/AUTOMATIC1111/stable-diffusion-webui]&lt;br /&gt;
&lt;br /&gt;
Nel caso si voglia approfondire l&#039;architettura generale si può visitare il repository: [https://github.com/Stability-AI/stablediffusion]&lt;br /&gt;
&lt;br /&gt;
= Overview dell&#039;interfaccia =&lt;br /&gt;
[[File:Overview_diffusion.png|700x700px]]&lt;br /&gt;
&lt;br /&gt;
* [[Sampling method (Stable Diffusion)|Sampling method]]&lt;br /&gt;
&lt;br /&gt;
* Sampling steps:&lt;br /&gt;
&lt;br /&gt;
-Tra l&#039;1 e i 15 step: l&#039;immagine è relativamente sfocata.&lt;br /&gt;
&lt;br /&gt;
-Tra i 15 e i 25 step: L&#039;immagine è abbastanza chiara e di buona qualità.&lt;br /&gt;
&lt;br /&gt;
-Tra i 25 e i 45: La qualità dell&#039;immagine è molto alta e comprende la texture.&lt;br /&gt;
&lt;br /&gt;
-Dai 45 in poi: La loss function si stabilizza e si osserva una variazione minima nella risoluzione.&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:Sampling step 5.png|miniatura|5 step]]&lt;br /&gt;
![[File:10 step.png|miniatura|10 step]]&lt;br /&gt;
![[File:15 step.png|miniatura|15 step]]&lt;br /&gt;
|}&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:25 step.png|miniatura|25 step]]&lt;br /&gt;
![[File:40 step.png|miniatura|40 step]]&lt;br /&gt;
![[File:60 step.png|miniatura|60 step]]&lt;br /&gt;
|}&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:1 step.png|miniatura|1 step]]&lt;br /&gt;
![[File:150 step.png|miniatura|150 step]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
====== Upscaler: ======&lt;br /&gt;
L&#039;upscaling è il processo di aumentare la risoluzione di un&#039;immagine, cioè di ingrandirla, mantenendo al contempo la qualità visiva il più alta possibile e può essere ottenuto mediante algoritmi di interpolazione e tecniche avanzate di elaborazione delle immagini, che aggiungono dettagli artificiali per migliorare l&#039;aspetto dell&#039;immagine.&lt;br /&gt;
&lt;br /&gt;
- Hires Steps: migliorano la qualità dell&#039;immagine attraverso iterazioni aggiuntive durante il processo di generazione&lt;br /&gt;
&lt;br /&gt;
- Denoising strenght&lt;br /&gt;
&lt;br /&gt;
- Upscale by: L&#039;upscale di solito avviene dopo che l&#039;immagine è stata completamente generata. L&#039;immagine viene resa più grande senza perdere significativamente in qualità o dettaglio. Si esprime come un multiplier delle dimensioni dell&#039;immagine generata, da 1 a 4.&lt;br /&gt;
&lt;br /&gt;
* Width/Height: Dimensioni&lt;br /&gt;
&lt;br /&gt;
* Batch count: il numero di gruppi in cui i dati vengono divisi durante l&#039;elaborazione. Più batch count può significare una maggiore divisione dei dati durante il processo.&lt;br /&gt;
&lt;br /&gt;
* Batch size: quanti dati vengono elaborati contemporaneamente in ciascun gruppo. Un batch size più grande può accelerare il processo ma richiedere più memoria, mentre un batch size più piccolo può richiedere più tempo ma portare a risultati più precisi.&lt;br /&gt;
&lt;br /&gt;
* CFG Scale (Classifier Free Guidance Scale)&lt;br /&gt;
&lt;br /&gt;
* Seed: Un numero che inizializza il generatore di numeri casuali. Utilizzare lo stesso seed con gli stessi parametri di input produrrà sempre la stessa immagine. È utile per la riproducibilità o per fare piccoli aggiustamenti su un&#039;immagine esistente.&lt;br /&gt;
=Tecniche=&lt;br /&gt;
*[[TextualInversion]]&lt;br /&gt;
*[[Hypernetworks]]&lt;br /&gt;
*[[LoRA]]&lt;br /&gt;
&lt;br /&gt;
= Sperimentazioni =&lt;br /&gt;
Per effettuare un&#039;analisi bilanciata utilizzeremo gli stessi due metri di giudizio per valutare gli output:&lt;br /&gt;
&lt;br /&gt;
* Inception Score&lt;br /&gt;
* Visual Inspection by GPT4&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Denoising Strength =&lt;br /&gt;
Questo parametro si riferisce all&#039;intensità della &#039;&#039;&#039;riduzione del rumore&#039;&#039;&#039; applicata a un&#039;immagine. Il &amp;quot;rumore&amp;quot; è il termine usato per descrivere &#039;&#039;&#039;variazioni casuali e non desiderate&#039;&#039;&#039; nei livelli di luminosità o colore di un&#039;immagine, che possono renderla &#039;&#039;&#039;granulosa&#039;&#039;&#039; o &#039;&#039;&#039;offuscata&#039;&#039;&#039; e possono distorcere i dettagli.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
(Le sperimentazioni iniziano dopo il valore 0, poiché non si sta fornendo al modello l&#039;opportunità di &amp;quot;pulire&amp;quot; o trasformare il rumore in un&#039;immagine coerente basata sul prompt fornito)&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:Cooking_1.png|miniatura|200x200px|Denoising Strength = 0,1]]&lt;br /&gt;
|[[File:Cooking_2.png|miniatura|200x200px|Denoising Strength = 0,3]]&lt;br /&gt;
|[[File:Cooking_3.png|miniatura|200x200px|Denoising Strength = 0,7]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Impostando il Denoising Strenght a &amp;quot;0,1&amp;quot;, si nota un&#039;elevata quantità di rumore che rende indefiniti sia i dettagli che le sagome degli elementi a schermo. Aumentando de facto il valore del parametro si può osservare nettamente la differenza e l&#039;efficacia fra il valore intermedio (0,3) e quello iniziale, fino ad arrivare ad una qualità più che sufficiente impostando il parametro a &amp;quot;0,7&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
==Visual inspection by ChatGPT4==&lt;br /&gt;
Qui di seguito ci sarà una descrizione di ChatGPT4 sulla qualità delle immagini, in modo da comprendere se il modello riesca a individuare rumore e artefatti.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;&amp;lt;Le tre immagini mostrano una sequenza di azioni in una cucina, con un uomo che sembra impegnato nella preparazione di un piatto di carne. Nella prima immagine, il cuoco sta flambando la carne, creando un effetto visivo spettacolare con le fiamme che si alzano dalla padella. Nella seconda, appare concentrato nel girare o condire la carne, mentre nella terza è intento a cucinare, forse verificando la cottura o aggiungendo altri ingredienti.&lt;br /&gt;
Ogni immagine ha una qualità elevata, con dettagli nitidi e colori vivaci che catturano bene la scena della cucina. L&#039;illuminazione è ben gestita, evidenziando le azioni del cuoco e dando vita agli alimenti in preparazione. La composizione è dinamica e sembra che ci sia stata attenzione nel posizionare ogni elemento per creare una scena armoniosa che guida l&#039;occhio verso il soggetto principale senza distrazioni superflue.&lt;br /&gt;
Non si notano artefatti che suggeriscono una manipolazione digitale e le immagini trasmettono un senso di autenticità e professionalità. Ciò suggerisce che probabilmente sono state scattate durante una vera sessione di cucina e che fanno parte di una serie tematica ben pianificata. In sintesi, si tratta di una rappresentazione coerente e accattivante del processo culinario in azione.&amp;gt;&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dalla descrizione fornita, si nota come ChatGPT4 non riesca ad individuare le differenze sostanziali presenti fra le tre immagini, dimostrando comunque la capacità di saper descrivere il contesto in modo eccellente.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: CFG Scale =&lt;br /&gt;
Questo parametro controlla quanto fedelmente il processo di generazione delle immagini &#039;&#039;&#039;segue&#039;&#039;&#039; il prompt di testo fornito. Un valore più alto del CFG Scale significa che l&#039;immagine generata sarà più &#039;&#039;&#039;aderente&#039;&#039;&#039; al testo di input, ossia seguirà più strettamente le indicazioni date. In contrasto, un valore più basso dà al modello più libertà di &#039;&#039;&#039;inventare&#039;&#039;&#039; o di essere &#039;&#039;&#039;creativo&#039;&#039;&#039;, portando a risultati che possono &#039;&#039;&#039;deviare&#039;&#039;&#039; di più dal prompt originale.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:CookingCFG2.png|miniatura|200x200px|CFG = 1]]&lt;br /&gt;
|[[File:CookingCFG1.png|miniatura|200x200px|CFG = 3]]&lt;br /&gt;
|[[File:Cooking_3.png|miniatura|200x200px|CFG = 15]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Impostando il parametro al suo valore minimo si nota come il modello segua ben poco il prompt fornito. Viene presentato un ragazzo e non un uomo, situato in un posto che ricorda appena una cucina, mentre sta cucinando del cibo che ricorda vagamente la carne. Con un valore pari a &amp;quot;3&amp;quot;, il setting è già interamente riconoscibile. In questo caso sono solo le azioni che vengono rappresentate a schermo ad essere poco chiare, poiché si nota un uomo che ha messo una fetta di carne in un forno a legna. L&#039;ultima immagine mostra un contesto totalmente credibile: sia l&#039;ambiente che le azioni sono coerenti con il prompt fornito, benché gli unici difetti facilmente visibili sono gli oggetti che l&#039;uomo tiene in mano per cucinare, essendo poco definiti.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Share Attention in Batch =&lt;br /&gt;
Il parametro &amp;quot;&#039;&#039;&#039;Share attention in batch&#039;&#039;&#039;&amp;quot; è una funzionalità dove l&#039;attenzione del modello, ovvero la parte che il modello &amp;quot;considera&amp;quot; più importante durante la generazione dell&#039;immagine, viene &#039;&#039;&#039;condivisa&#039;&#039;&#039; o &#039;&#039;&#039;sincronizzata&#039;&#039;&#039; tra le immagini in un batch. Quando si generano &#039;&#039;&#039;più immagini contemporaneamente (un batch)&#039;&#039;&#039;, questo parametro fa in modo che tutte le immagini nel batch diano priorità a parti simili dell&#039;input, o che le caratteristiche stilistiche siano &#039;&#039;&#039;coerenti&#039;&#039;&#039; tra di loro. Per esempio, se si stanno generando immagini di volti e si vuole che l&#039;attenzione sia focalizzata sugli occhi per tutti i volti nel batch, attivare questa opzione potrebbe aiutare a garantire che tutti i volti generati abbiano occhi ben definiti e uno stile simile. Questo può essere particolarmente utile quando l&#039;obiettivo è creare una serie di immagini che devono essere visivamente coerenti l&#039;una con l&#039;altra.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:Cookingstyle1.png|miniatura|200x200px|SAIB = off]]&lt;br /&gt;
|[[File:Cookingstyle2.png|miniatura|200x200px|SAIB = on]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Hires steps =&lt;br /&gt;
Questo parametro si riferisce ai &#039;&#039;&#039;passaggi aggiuntivi&#039;&#039;&#039; di elaborazione che vengono eseguiti per &#039;&#039;&#039;rifinire&#039;&#039;&#039; l&#039;immagine dopo la sua creazione iniziale. Aumentare l&#039;Hire ssteps può migliorare la qualità dell&#039;immagine, ma &#039;&#039;&#039;rallenterà&#039;&#039;&#039; anche il processo di generazione.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on, &#039;&#039;&#039;the steak is being cooked on a pan&#039;&#039;&#039;&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:CookingHS1.png|miniatura|200x200px|Hire steps = 0]]&lt;br /&gt;
|[[File:CookingHS3.png|miniatura|200x200px|Hire steps = 100]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
In questa sperimentazione si notano poche differenze fra un&#039;immagine e l&#039;altra; fra l&#039;assenza del parametro e il suo valore massimo. L&#039;unico difetto individuabile si trova nella prima immagine dove l&#039;uomo sta cercando di cuocere la carne senza una padella.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: SelfAttentionGuidance Integrated =&lt;br /&gt;
Questa tecnica è progettata per rendere il processo di generazione delle immagini &#039;&#039;&#039;più semplice e veloce&#039;&#039;&#039; per l&#039;utente, migliorando allo stesso tempo la &#039;&#039;&#039;qualità&#039;&#039;&#039; delle immagini prodotte. La funzionalità integrata della &amp;quot;self attention guidance&amp;quot; può aiutare a creare immagini che appaiono &#039;&#039;&#039;più realistiche&#039;&#039;&#039; e con oggetti &#039;&#039;&#039;meglio definiti&#039;&#039;&#039; senza che l&#039;utente debba effettuare configurazioni complesse o &#039;&#039;&#039;passaggi supplementari&#039;&#039;&#039;.&lt;br /&gt;
Il termine &amp;quot;&#039;&#039;&#039;Scale&#039;&#039;&#039;&amp;quot; si riferisce all&#039;intensità con cui la guida basata sull&#039;auto-attenzione viene applicata durante il processo di generazione. Una &amp;quot;Scale&amp;quot; maggiore implica &#039;&#039;&#039;un&#039;adesione più forte al prompt testuale&#039;&#039;&#039; e può portare a immagini più &#039;&#039;&#039;dettagliate e coerenti con l&#039;input&#039;&#039;&#039;, anche se potrebbe ridurre la diversità delle immagini generate.&lt;br /&gt;
Il parametro &amp;quot;&#039;&#039;&#039;Blur Sigma&#039;&#039;&#039;&amp;quot;, invece, è associato al &#039;&#039;&#039;grado di sfocatura&#039;&#039;&#039; che viene applicato alle regioni selezionate di un&#039;immagine. Questo processo agisce dove le aree con maggiore auto-attenzione — ovvero quelle parti dell&#039;immagine che il modello riconosce come più importanti o informative — vengono &#039;&#039;&#039;sfocate&#039;&#039;&#039; leggermente. L&#039;idea è che &#039;&#039;&#039;enfatizzando&#039;&#039;&#039; il lavoro del modello su queste aree sfocate, il modello può generare risultati migliori, perfezionando le parti &#039;&#039;&#039;più significative&#039;&#039;&#039; dell&#039;immagine e &#039;&#039;&#039;riducendo&#039;&#039;&#039; potenzialmente il &#039;&#039;&#039;rumore&#039;&#039;&#039; o i &#039;&#039;&#039;dettagli superflui&#039;&#039;&#039; nelle regioni meno importanti.&lt;br /&gt;
I valori di default sono i seguenti: &amp;lt;&amp;lt;&#039;&#039;&#039;Scale = 0,5&#039;&#039;&#039;&amp;gt;&amp;gt; - &amp;lt;&amp;lt;&#039;&#039;&#039;Blur sigma = 2&#039;&#039;&#039;&amp;gt;&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on, &#039;&#039;&#039;the steak is being cooked on a pan&#039;&#039;&#039;&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:SAG_none_-_default.jpg|miniatura|200x200px|Tecnica omessa e valori default]]&lt;br /&gt;
|[[File:SAG_Scale.jpg|miniatura|200x200px|SAG Scale (da sinistra): -2; 1; 5]]&lt;br /&gt;
|[[File:SAG_BS.jpg|miniatura|200x200px|SAG BS (da sinistra): 0,1; 5; 10]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Nella prima immagine si osserva il confronto tra l&#039;immagine generata senza la tecnica del SAG e quella generata con quest&#039;ultima. Si evidenzia come l&#039;immagine generata con la tecnica con valori impostati di default sia di qualità inferiore alla prima, suggerendo che bisogna regolare i parametri di &amp;quot;scale&amp;quot; e di &amp;quot;blur sigma&amp;quot;. Per quanto riguarda le immagini generate variando solo il parametro di scale, si nota come si ottengano dei pessimi risultati impostando dei valori sia troppo bassi che troppo alti, e che quindi sia necessario lavorare nei valori intermedi (i risultati cambiano in base alla complessità del prompt). Relativamente al parametro di Blur sigma, si notano poche differenze fra le tre immagini, benché ci siano errori evidenti sul modo in cui l&#039;uomo tenga in mano degli oggetti difficilmente identificabili, soprattutto nei valori &amp;quot;0,1&amp;quot; e &amp;quot;10&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
=Altri componenti=&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:altrefunzioni.png|miniatura|500x500px|Tecniche]]&lt;br /&gt;
|}&lt;br /&gt;
==&#039;&#039;&#039;ControlNet&#039;&#039;&#039;== &lt;br /&gt;
Un modello di &#039;&#039;&#039;rete neurale&#039;&#039;&#039; progettato per controllare i modelli di Stable Diffusion, fornendo agli utenti un &#039;&#039;&#039;controllo dettagliato&#039;&#039;&#039; sugli output dei modelli di diffusione nelle attività di generazione di testo in immagine. ControlNet è una struttura di rete neurale che consente &#039;&#039;&#039;l&#039;aggiunta di condizioni aggiuntive&#039;&#039;&#039; per influenzare l&#039;output dei modelli di diffusione. Queste condizioni possono assumere molte forme, come [[Edge maps]], [[Depth maps]], e [[Semantic segmentations]]. L&#039;uso di ControlNet su Stable Diffusion offre numerosi vantaggi. Consente un controllo preciso sulla semantica e sulle caratteristiche del contenuto generato, consentendo la generazione di output più &#039;&#039;&#039;accurati&#039;&#039;&#039; e &#039;&#039;&#039;personalizzati&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
[[File:Controlnet.png|600px]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;DynamicThresholding (CFG-Fix)&#039;&#039;&#039;==  &lt;br /&gt;
è un &#039;&#039;&#039;filtro&#039;&#039;&#039; per migliorare le immagini. Aiuta a risolvere &#039;&#039;&#039;problemi di colore&#039;&#039;&#039; quando si usano &#039;&#039;&#039;impostazioni più alte&#039;&#039;&#039;. Queste ultime, si riferiscono a valori maggiori o livelli superiori, significa utilizzare valori più grandi per &#039;&#039;&#039;migliorare&#039;&#039;&#039; l’immagine. Ad esempio, se un’immagine è leggermente sbiadita e la si vuole rendere più nitida, è possibile aumentare determinati parametri. Tuttavia, a volte, quando si usano valori troppo alti, potrebbero verificarsi problemi di colore. Ecco dove entra in gioco CFG-Fix: risolve questi problemi di colore quando si utilizzano impostazioni elevate.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;FreeU&#039;&#039;&#039;== &lt;br /&gt;
Un componente aggiuntivo di Stable Diffusion che migliora la qualità dell&#039;immagine modificando il &#039;&#039;&#039;denoiser&#039;&#039;&#039; del modello. Il miglioramento avviene senza costi: nessun addestramento, nessun parametro aggiuntivo introdotto e nessun aumento della memoria o del tempo di campionamento.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A 25 year old mage, dress, full body, magic, lightning, rim light, moon, night&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra e utilizzo FreeU.&lt;br /&gt;
&lt;br /&gt;
[[File:maga.png|300px]] [[File:magaFreeU.png|300px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;HyperTile&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;metodo&#039;&#039;&#039; che ottimizza il livello di &#039;&#039;&#039;auto-attenzione&#039;&#039;&#039; all’interno dei modelli Stable-Diffusion. Questo porta a una &#039;&#039;&#039;riduzione del tempo di calcolo&#039;&#039;&#039; che varia da 1 a 4 volte, a seconda della &#039;&#039;&#039;risoluzione iniziale&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A man eating pasta&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra (&#039;&#039;&#039;15 sec&#039;&#039;&#039;) e utilizzo di Hypertile (&#039;&#039;&#039;7 sec&#039;&#039;&#039;)&lt;br /&gt;
&lt;br /&gt;
[[File:Uomopasta1.png|400px]] [[File:Uomopasta2.png|400px]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;Kohya HRFix&#039;&#039;&#039;== &lt;br /&gt;
è un’&#039;&#039;&#039;estensione&#039;&#039;&#039; utilizzata nei modelli Stable-Diffusion per migliorare la risoluzione delle immagini generate. Questa estensione è stata sviluppata da Kohya e ha lo scopo di &#039;&#039;&#039;limitare i problemi di clonazione/crollo&#039;&#039;&#039; nelle immagini ad alta risoluzione. Tuttavia, l’uso di Kohya HRFix può ridurre la varietà delle immagini generate, rendendole più identiche tra loro. Le impostazioni ottimali per Kohya HRFix possono variare a seconda delle esigenze specifiche dell’utente.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A potrait of a white cat, cozy house&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra e utilizzo Kohya HRFix.&lt;br /&gt;
&lt;br /&gt;
[[File:Gattobianco1.png|300px]] [[File:Gattokoya.png|500px]]&lt;br /&gt;
&lt;br /&gt;
Possiamo notare che nonostante presenti risultati migliori per quanto riguarda la risoluzione e dei dettagli, Kohya ha anche il contro di alterare leggermente l&#039;interpretazione del prompt il che, per artisti dedicati e che curano ogni dettaglio della generazione, può essere un grosso dealbreaker.&lt;br /&gt;
[[File:Kohya.png|centro|miniatura|923x923px|Confronto di tempistiche e risultati con e senza Kohya XRFix. fonte: https://www.reddit.com/r/StableDiffusion/comments/17z951a/kohyas_deepshrink_highres_fix_is_amazing_produces/]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;LatentModifier&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;componente&#039;&#039;&#039; che &#039;&#039;&#039;modifica i valori latenti&#039;&#039;&#039; durante il &#039;&#039;&#039;processo di diffusione&#039;&#039;&#039; in un modello di generazione di immagini. Queste modifiche possono influenzare vari aspetti dell’immagine finale, come la &#039;&#039;&#039;nitidezza&#039;&#039;&#039;, il &#039;&#039;&#039;contrasto&#039;&#039;&#039; e il &#039;&#039;&#039;rumore&#039;&#039;&#039;. Ci sono parametri &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A potrait of a white cat, cozy house&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra e utilizzo LatentModifier.&lt;br /&gt;
&lt;br /&gt;
[[File:Gattobianco1.png|300px]] [[File:Latentgatto.png|300px]]&lt;br /&gt;
&#039;&#039;&#039;Prompt: a cute kitten smoking a cigar&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: a cute kitten smoking a cigar&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
=== Sharpness Multiplier: ===&lt;br /&gt;
[[File:Image (3).png|sinistra|miniatura|313x313px|-100]]&lt;br /&gt;
[[File:Image (4).png|miniatura|326x326px|+100|centro]]&lt;br /&gt;
[[File:Screenshot (367).png|miniatura|851x851px|Tonemap Multiplier: 100|sinistra]]&lt;br /&gt;
[[File:Screenshot (368).png|miniatura|852x852px|Miglior risultato ottenuto dalla sperimentazione e relativi parametri|nessuno]]&lt;br /&gt;
==&#039;&#039;&#039;MultiDiffusion&#039;&#039;&#039;== &lt;br /&gt;
&lt;br /&gt;
è un &#039;&#039;&#039;framework&#039;&#039;&#039; unificato che consente la generazione di immagini &#039;&#039;&#039;versatili&#039;&#039;&#039; e &#039;&#039;&#039;controllabili&#039;&#039;&#039;, utilizzando un modello di diffusione text-to-image pre-addestrato. Al centro dell’approccio c’è un nuovo processo di generazione, basato su un compito di &#039;&#039;&#039;ottimizzazione&#039;&#039;&#039; che lega insieme &#039;&#039;&#039;più processi&#039;&#039;&#039; di generazione di diffusione con un &#039;&#039;&#039;insieme condiviso di parametri o vincoli&#039;&#039;&#039;. Quindi, invece di utilizzare un&#039;unica immagine di riferimento (prompt), la multidiffusion combina le informazioni da più immagini per creare un&#039;immagine finale più ricca e complessa.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;Never OOM&#039;&#039;&#039;== &lt;br /&gt;
Parametro puramente tecnico che permette di scaricare sempre i modelli dalla &#039;&#039;&#039;VRAM&#039;&#039;&#039;. Questo può essere utile se si utilizzano &#039;&#039;&#039;più software insieme&#039;&#039;&#039; e si desidera che Stable Diffusion utilizzi meno VRAM e ne dia &#039;&#039;&#039;una parte ad altri software&#039;&#039;&#039;, o quando si utilizzano vecchie estensioni che competono con la VRAM di Stable Diffusion. Non ha impatto sulla generazione. [[Category:strumento]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;Script&#039;&#039;&#039;==&lt;br /&gt;
Questa funzione è utilizzata per implementare &#039;&#039;&#039;script personalizzati&#039;&#039;&#039; che possono modificare il &#039;&#039;&#039;comportamento&#039;&#039;&#039; del processo di generazione di immagini.&lt;br /&gt;
*&#039;&#039;&#039;None&#039;&#039;&#039;: Questa è l’opzione predefinita che significa che non viene eseguito alcuno script.&lt;br /&gt;
*&#039;&#039;&#039;Prompt matrix&#039;&#039;&#039;: permette di testare e confrontare le modifiche che i prompt apportano alle immagini generate. Si possono strutturare i prompt in modo che ogni immagine nella matrice abbia un prompt che inizia con una frase comune.Per esempio, una immagine avrà il prompt “una ciotola di frutta, mele”, un’altra avrà “una ciotola di frutta, mele, pere” e così via.&lt;br /&gt;
*&#039;&#039;&#039;Prompts from file or textbox&#039;&#039;&#039;: permette di caricare i prompt da un file o da un textbox. Si può creare un prompt a piacimento, creare un numero x di variazioni su di esso, copiare quel file di testo, e ripetere fino a quando non hai centinaia di mini file di testo.&lt;br /&gt;
*&#039;&#039;&#039;X/Y/Z plot&#039;&#039;&#039;: permette di eseguire test sui propri prompt e impostazioni per vedere i risultati, senza impegnarsi in una generazione di immagini completa. Utilizzando un grafico, si possono confrontare i risultati per vedere quale combinazione di impostazioni funziona meglio.&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Txt2img_(Stable_Diffusion)&amp;diff=1552</id>
		<title>Txt2img (Stable Diffusion)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Txt2img_(Stable_Diffusion)&amp;diff=1552"/>
		<updated>2024-03-22T14:19:49Z</updated>

		<summary type="html">&lt;p&gt;Stefano: /* LatentModifier */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Txt2img è un tool di [[Stable Diffusion]] che, come intuibile, genera un&#039;immagine .png basata su un prompt testuale. Il suo ultimo aggiornamento risale al 28 Ottobre 2022.&lt;br /&gt;
&lt;br /&gt;
I parametri di Txt2img non verranno descritti con massimo dettaglio dal momento che la finalità di questa Wiki entry è di fornire delle linee guida comprovate da sperimentazione diretta.&lt;br /&gt;
&lt;br /&gt;
* Il primo obiettivo è ricondurre con praticità il livello di performance riscontrato nel modello alle relative combinazioni di parametri.&lt;br /&gt;
&lt;br /&gt;
* Il secondo obiettivo è creare collegamenti tra ciascun parametro e la corrispondente sezione dell&#039;architettura.&lt;br /&gt;
&lt;br /&gt;
= Link di approfondimento =&lt;br /&gt;
Nel caso si voglia approfondire i setting si può visitare il github relativo alla UI: [https://github.com/AUTOMATIC1111/stable-diffusion-webui]&lt;br /&gt;
&lt;br /&gt;
Nel caso si voglia approfondire l&#039;architettura generale si può visitare il repository: [https://github.com/Stability-AI/stablediffusion]&lt;br /&gt;
&lt;br /&gt;
= Overview dell&#039;interfaccia =&lt;br /&gt;
[[File:Overview_diffusion.png|700x700px]]&lt;br /&gt;
&lt;br /&gt;
* [[Sampling method (Stable Diffusion)|Sampling method]]&lt;br /&gt;
&lt;br /&gt;
* Sampling steps:&lt;br /&gt;
&lt;br /&gt;
-Tra l&#039;1 e i 15 step: l&#039;immagine è relativamente sfocata.&lt;br /&gt;
&lt;br /&gt;
-Tra i 15 e i 25 step: L&#039;immagine è abbastanza chiara e di buona qualità.&lt;br /&gt;
&lt;br /&gt;
-Tra i 25 e i 45: La qualità dell&#039;immagine è molto alta e comprende la texture.&lt;br /&gt;
&lt;br /&gt;
-Dai 45 in poi: La loss function si stabilizza e si osserva una variazione minima nella risoluzione.&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:Sampling step 5.png|miniatura|5 step]]&lt;br /&gt;
![[File:10 step.png|miniatura|10 step]]&lt;br /&gt;
![[File:15 step.png|miniatura|15 step]]&lt;br /&gt;
|}&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:25 step.png|miniatura|25 step]]&lt;br /&gt;
![[File:40 step.png|miniatura|40 step]]&lt;br /&gt;
![[File:60 step.png|miniatura|60 step]]&lt;br /&gt;
|}&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:1 step.png|miniatura|1 step]]&lt;br /&gt;
![[File:150 step.png|miniatura|150 step]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
====== Upscaler: ======&lt;br /&gt;
L&#039;upscaling è il processo di aumentare la risoluzione di un&#039;immagine, cioè di ingrandirla, mantenendo al contempo la qualità visiva il più alta possibile e può essere ottenuto mediante algoritmi di interpolazione e tecniche avanzate di elaborazione delle immagini, che aggiungono dettagli artificiali per migliorare l&#039;aspetto dell&#039;immagine.&lt;br /&gt;
&lt;br /&gt;
- Hires Steps: migliorano la qualità dell&#039;immagine attraverso iterazioni aggiuntive durante il processo di generazione&lt;br /&gt;
&lt;br /&gt;
- Denoising strenght&lt;br /&gt;
&lt;br /&gt;
- Upscale by: L&#039;upscale di solito avviene dopo che l&#039;immagine è stata completamente generata. L&#039;immagine viene resa più grande senza perdere significativamente in qualità o dettaglio. Si esprime come un multiplier delle dimensioni dell&#039;immagine generata, da 1 a 4.&lt;br /&gt;
&lt;br /&gt;
* Width/Height: Dimensioni&lt;br /&gt;
&lt;br /&gt;
* Batch count: il numero di gruppi in cui i dati vengono divisi durante l&#039;elaborazione. Più batch count può significare una maggiore divisione dei dati durante il processo.&lt;br /&gt;
&lt;br /&gt;
* Batch size: quanti dati vengono elaborati contemporaneamente in ciascun gruppo. Un batch size più grande può accelerare il processo ma richiedere più memoria, mentre un batch size più piccolo può richiedere più tempo ma portare a risultati più precisi.&lt;br /&gt;
&lt;br /&gt;
* CFG Scale (Classifier Free Guidance Scale)&lt;br /&gt;
&lt;br /&gt;
* Seed: Un numero che inizializza il generatore di numeri casuali. Utilizzare lo stesso seed con gli stessi parametri di input produrrà sempre la stessa immagine. È utile per la riproducibilità o per fare piccoli aggiustamenti su un&#039;immagine esistente.&lt;br /&gt;
=Tecniche=&lt;br /&gt;
*[[TextualInversion]]&lt;br /&gt;
*[[Hypernetworks]]&lt;br /&gt;
*[[LoRA]]&lt;br /&gt;
&lt;br /&gt;
= Sperimentazioni =&lt;br /&gt;
Per effettuare un&#039;analisi bilanciata utilizzeremo gli stessi due metri di giudizio per valutare gli output:&lt;br /&gt;
&lt;br /&gt;
* Inception Score&lt;br /&gt;
* Visual Inspection by GPT4&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Denoising Strength =&lt;br /&gt;
Questo parametro si riferisce all&#039;intensità della &#039;&#039;&#039;riduzione del rumore&#039;&#039;&#039; applicata a un&#039;immagine. Il &amp;quot;rumore&amp;quot; è il termine usato per descrivere &#039;&#039;&#039;variazioni casuali e non desiderate&#039;&#039;&#039; nei livelli di luminosità o colore di un&#039;immagine, che possono renderla &#039;&#039;&#039;granulosa&#039;&#039;&#039; o &#039;&#039;&#039;offuscata&#039;&#039;&#039; e possono distorcere i dettagli.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
(Le sperimentazioni iniziano dopo il valore 0, poiché non si sta fornendo al modello l&#039;opportunità di &amp;quot;pulire&amp;quot; o trasformare il rumore in un&#039;immagine coerente basata sul prompt fornito)&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:Cooking_1.png|miniatura|200x200px|Denoising Strength = 0,1]]&lt;br /&gt;
|[[File:Cooking_2.png|miniatura|200x200px|Denoising Strength = 0,3]]&lt;br /&gt;
|[[File:Cooking_3.png|miniatura|200x200px|Denoising Strength = 0,7]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Impostando il Denoising Strenght a &amp;quot;0,1&amp;quot;, si nota un&#039;elevata quantità di rumore che rende indefiniti sia i dettagli che le sagome degli elementi a schermo. Aumentando de facto il valore del parametro si può osservare nettamente la differenza e l&#039;efficacia fra il valore intermedio (0,3) e quello iniziale, fino ad arrivare ad una qualità più che sufficiente impostando il parametro a &amp;quot;0,7&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
==Visual inspection by ChatGPT4==&lt;br /&gt;
Qui di seguito ci sarà una descrizione di ChatGPT4 sulla qualità delle immagini, in modo da comprendere se il modello riesca a individuare rumore e artefatti.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;&amp;lt;Le tre immagini mostrano una sequenza di azioni in una cucina, con un uomo che sembra impegnato nella preparazione di un piatto di carne. Nella prima immagine, il cuoco sta flambando la carne, creando un effetto visivo spettacolare con le fiamme che si alzano dalla padella. Nella seconda, appare concentrato nel girare o condire la carne, mentre nella terza è intento a cucinare, forse verificando la cottura o aggiungendo altri ingredienti.&lt;br /&gt;
Ogni immagine ha una qualità elevata, con dettagli nitidi e colori vivaci che catturano bene la scena della cucina. L&#039;illuminazione è ben gestita, evidenziando le azioni del cuoco e dando vita agli alimenti in preparazione. La composizione è dinamica e sembra che ci sia stata attenzione nel posizionare ogni elemento per creare una scena armoniosa che guida l&#039;occhio verso il soggetto principale senza distrazioni superflue.&lt;br /&gt;
Non si notano artefatti che suggeriscono una manipolazione digitale e le immagini trasmettono un senso di autenticità e professionalità. Ciò suggerisce che probabilmente sono state scattate durante una vera sessione di cucina e che fanno parte di una serie tematica ben pianificata. In sintesi, si tratta di una rappresentazione coerente e accattivante del processo culinario in azione.&amp;gt;&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dalla descrizione fornita, si nota come ChatGPT4 non riesca ad individuare le differenze sostanziali presenti fra le tre immagini, dimostrando comunque la capacità di saper descrivere il contesto in modo eccellente.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: CFG Scale =&lt;br /&gt;
Questo parametro controlla quanto fedelmente il processo di generazione delle immagini &#039;&#039;&#039;segue&#039;&#039;&#039; il prompt di testo fornito. Un valore più alto del CFG Scale significa che l&#039;immagine generata sarà più &#039;&#039;&#039;aderente&#039;&#039;&#039; al testo di input, ossia seguirà più strettamente le indicazioni date. In contrasto, un valore più basso dà al modello più libertà di &#039;&#039;&#039;inventare&#039;&#039;&#039; o di essere &#039;&#039;&#039;creativo&#039;&#039;&#039;, portando a risultati che possono &#039;&#039;&#039;deviare&#039;&#039;&#039; di più dal prompt originale.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:CookingCFG2.png|miniatura|200x200px|CFG = 1]]&lt;br /&gt;
|[[File:CookingCFG1.png|miniatura|200x200px|CFG = 3]]&lt;br /&gt;
|[[File:Cooking_3.png|miniatura|200x200px|CFG = 15]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Impostando il parametro al suo valore minimo si nota come il modello segua ben poco il prompt fornito. Viene presentato un ragazzo e non un uomo, situato in un posto che ricorda appena una cucina, mentre sta cucinando del cibo che ricorda vagamente la carne. Con un valore pari a &amp;quot;3&amp;quot;, il setting è già interamente riconoscibile. In questo caso sono solo le azioni che vengono rappresentate a schermo ad essere poco chiare, poiché si nota un uomo che ha messo una fetta di carne in un forno a legna. L&#039;ultima immagine mostra un contesto totalmente credibile: sia l&#039;ambiente che le azioni sono coerenti con il prompt fornito, benché gli unici difetti facilmente visibili sono gli oggetti che l&#039;uomo tiene in mano per cucinare, essendo poco definiti.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Share Attention in Batch =&lt;br /&gt;
Il parametro &amp;quot;&#039;&#039;&#039;Share attention in batch&#039;&#039;&#039;&amp;quot; è una funzionalità dove l&#039;attenzione del modello, ovvero la parte che il modello &amp;quot;considera&amp;quot; più importante durante la generazione dell&#039;immagine, viene &#039;&#039;&#039;condivisa&#039;&#039;&#039; o &#039;&#039;&#039;sincronizzata&#039;&#039;&#039; tra le immagini in un batch. Quando si generano &#039;&#039;&#039;più immagini contemporaneamente (un batch)&#039;&#039;&#039;, questo parametro fa in modo che tutte le immagini nel batch diano priorità a parti simili dell&#039;input, o che le caratteristiche stilistiche siano &#039;&#039;&#039;coerenti&#039;&#039;&#039; tra di loro. Per esempio, se si stanno generando immagini di volti e si vuole che l&#039;attenzione sia focalizzata sugli occhi per tutti i volti nel batch, attivare questa opzione potrebbe aiutare a garantire che tutti i volti generati abbiano occhi ben definiti e uno stile simile. Questo può essere particolarmente utile quando l&#039;obiettivo è creare una serie di immagini che devono essere visivamente coerenti l&#039;una con l&#039;altra.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:Cookingstyle1.png|miniatura|200x200px|SAIB = off]]&lt;br /&gt;
|[[File:Cookingstyle2.png|miniatura|200x200px|SAIB = on]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Hires steps =&lt;br /&gt;
Questo parametro si riferisce ai &#039;&#039;&#039;passaggi aggiuntivi&#039;&#039;&#039; di elaborazione che vengono eseguiti per &#039;&#039;&#039;rifinire&#039;&#039;&#039; l&#039;immagine dopo la sua creazione iniziale. Aumentare l&#039;Hire ssteps può migliorare la qualità dell&#039;immagine, ma &#039;&#039;&#039;rallenterà&#039;&#039;&#039; anche il processo di generazione.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on, &#039;&#039;&#039;the steak is being cooked on a pan&#039;&#039;&#039;&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:CookingHS1.png|miniatura|200x200px|Hire steps = 0]]&lt;br /&gt;
|[[File:CookingHS3.png|miniatura|200x200px|Hire steps = 100]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
In questa sperimentazione si notano poche differenze fra un&#039;immagine e l&#039;altra; fra l&#039;assenza del parametro e il suo valore massimo. L&#039;unico difetto individuabile si trova nella prima immagine dove l&#039;uomo sta cercando di cuocere la carne senza una padella.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: SelfAttentionGuidance Integrated =&lt;br /&gt;
Questa tecnica è progettata per rendere il processo di generazione delle immagini &#039;&#039;&#039;più semplice e veloce&#039;&#039;&#039; per l&#039;utente, migliorando allo stesso tempo la &#039;&#039;&#039;qualità&#039;&#039;&#039; delle immagini prodotte. La funzionalità integrata della &amp;quot;self attention guidance&amp;quot; può aiutare a creare immagini che appaiono &#039;&#039;&#039;più realistiche&#039;&#039;&#039; e con oggetti &#039;&#039;&#039;meglio definiti&#039;&#039;&#039; senza che l&#039;utente debba effettuare configurazioni complesse o &#039;&#039;&#039;passaggi supplementari&#039;&#039;&#039;.&lt;br /&gt;
Il termine &amp;quot;&#039;&#039;&#039;Scale&#039;&#039;&#039;&amp;quot; si riferisce all&#039;intensità con cui la guida basata sull&#039;auto-attenzione viene applicata durante il processo di generazione. Una &amp;quot;Scale&amp;quot; maggiore implica &#039;&#039;&#039;un&#039;adesione più forte al prompt testuale&#039;&#039;&#039; e può portare a immagini più &#039;&#039;&#039;dettagliate e coerenti con l&#039;input&#039;&#039;&#039;, anche se potrebbe ridurre la diversità delle immagini generate.&lt;br /&gt;
Il parametro &amp;quot;&#039;&#039;&#039;Blur Sigma&#039;&#039;&#039;&amp;quot;, invece, è associato al &#039;&#039;&#039;grado di sfocatura&#039;&#039;&#039; che viene applicato alle regioni selezionate di un&#039;immagine. Questo processo agisce dove le aree con maggiore auto-attenzione — ovvero quelle parti dell&#039;immagine che il modello riconosce come più importanti o informative — vengono &#039;&#039;&#039;sfocate&#039;&#039;&#039; leggermente. L&#039;idea è che &#039;&#039;&#039;enfatizzando&#039;&#039;&#039; il lavoro del modello su queste aree sfocate, il modello può generare risultati migliori, perfezionando le parti &#039;&#039;&#039;più significative&#039;&#039;&#039; dell&#039;immagine e &#039;&#039;&#039;riducendo&#039;&#039;&#039; potenzialmente il &#039;&#039;&#039;rumore&#039;&#039;&#039; o i &#039;&#039;&#039;dettagli superflui&#039;&#039;&#039; nelle regioni meno importanti.&lt;br /&gt;
I valori di default sono i seguenti: &amp;lt;&amp;lt;&#039;&#039;&#039;Scale = 0,5&#039;&#039;&#039;&amp;gt;&amp;gt; - &amp;lt;&amp;lt;&#039;&#039;&#039;Blur sigma = 2&#039;&#039;&#039;&amp;gt;&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on, &#039;&#039;&#039;the steak is being cooked on a pan&#039;&#039;&#039;&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:SAG_none_-_default.jpg|miniatura|200x200px|Tecnica omessa e valori default]]&lt;br /&gt;
|[[File:SAG_Scale.jpg|miniatura|200x200px|SAG Scale (da sinistra): -2; 1; 5]]&lt;br /&gt;
|[[File:SAG_BS.jpg|miniatura|200x200px|SAG BS (da sinistra): 0,1; 5; 10]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Nella prima immagine si osserva il confronto tra l&#039;immagine generata senza la tecnica del SAG e quella generata con quest&#039;ultima. Si evidenzia come l&#039;immagine generata con la tecnica con valori impostati di default sia di qualità inferiore alla prima, suggerendo che bisogna regolare i parametri di &amp;quot;scale&amp;quot; e di &amp;quot;blur sigma&amp;quot;. Per quanto riguarda le immagini generate variando solo il parametro di scale, si nota come si ottengano dei pessimi risultati impostando dei valori sia troppo bassi che troppo alti, e che quindi sia necessario lavorare nei valori intermedi (i risultati cambiano in base alla complessità del prompt). Relativamente al parametro di Blur sigma, si notano poche differenze fra le tre immagini, benché ci siano errori evidenti sul modo in cui l&#039;uomo tenga in mano degli oggetti difficilmente identificabili, soprattutto nei valori &amp;quot;0,1&amp;quot; e &amp;quot;10&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
=Altri componenti=&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:altrefunzioni.png|miniatura|500x500px|Tecniche]]&lt;br /&gt;
|}&lt;br /&gt;
==&#039;&#039;&#039;ControlNet&#039;&#039;&#039;== &lt;br /&gt;
Un modello di &#039;&#039;&#039;rete neurale&#039;&#039;&#039; progettato per controllare i modelli di Stable Diffusion, fornendo agli utenti un &#039;&#039;&#039;controllo dettagliato&#039;&#039;&#039; sugli output dei modelli di diffusione nelle attività di generazione di testo in immagine. ControlNet è una struttura di rete neurale che consente &#039;&#039;&#039;l&#039;aggiunta di condizioni aggiuntive&#039;&#039;&#039; per influenzare l&#039;output dei modelli di diffusione. Queste condizioni possono assumere molte forme, come [[Edge maps]], [[Depth maps]], e [[Semantic segmentations]]. L&#039;uso di ControlNet su Stable Diffusion offre numerosi vantaggi. Consente un controllo preciso sulla semantica e sulle caratteristiche del contenuto generato, consentendo la generazione di output più &#039;&#039;&#039;accurati&#039;&#039;&#039; e &#039;&#039;&#039;personalizzati&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
[[File:Controlnet.png|600px]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;DynamicThresholding (CFG-Fix)&#039;&#039;&#039;==  &lt;br /&gt;
è un &#039;&#039;&#039;filtro&#039;&#039;&#039; per migliorare le immagini. Aiuta a risolvere &#039;&#039;&#039;problemi di colore&#039;&#039;&#039; quando si usano &#039;&#039;&#039;impostazioni più alte&#039;&#039;&#039;. Queste ultime, si riferiscono a valori maggiori o livelli superiori, significa utilizzare valori più grandi per &#039;&#039;&#039;migliorare&#039;&#039;&#039; l’immagine. Ad esempio, se un’immagine è leggermente sbiadita e la si vuole rendere più nitida, è possibile aumentare determinati parametri. Tuttavia, a volte, quando si usano valori troppo alti, potrebbero verificarsi problemi di colore. Ecco dove entra in gioco CFG-Fix: risolve questi problemi di colore quando si utilizzano impostazioni elevate.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;FreeU&#039;&#039;&#039;== &lt;br /&gt;
Un componente aggiuntivo di Stable Diffusion che migliora la qualità dell&#039;immagine modificando il &#039;&#039;&#039;denoiser&#039;&#039;&#039; del modello. Il miglioramento avviene senza costi: nessun addestramento, nessun parametro aggiuntivo introdotto e nessun aumento della memoria o del tempo di campionamento.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A 25 year old mage, dress, full body, magic, lightning, rim light, moon, night&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra e utilizzo FreeU.&lt;br /&gt;
&lt;br /&gt;
[[File:maga.png|300px]] [[File:magaFreeU.png|300px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;HyperTile&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;metodo&#039;&#039;&#039; che ottimizza il livello di &#039;&#039;&#039;auto-attenzione&#039;&#039;&#039; all’interno dei modelli Stable-Diffusion. Questo porta a una &#039;&#039;&#039;riduzione del tempo di calcolo&#039;&#039;&#039; che varia da 1 a 4 volte, a seconda della &#039;&#039;&#039;risoluzione iniziale&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A man eating pasta&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra (&#039;&#039;&#039;15 sec&#039;&#039;&#039;) e utilizzo di Hypertile (&#039;&#039;&#039;7 sec&#039;&#039;&#039;)&lt;br /&gt;
&lt;br /&gt;
[[File:Uomopasta1.png|400px]] [[File:Uomopasta2.png|400px]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;Kohya HRFix&#039;&#039;&#039;== &lt;br /&gt;
è un’&#039;&#039;&#039;estensione&#039;&#039;&#039; utilizzata nei modelli Stable-Diffusion per migliorare la risoluzione delle immagini generate. Questa estensione è stata sviluppata da Kohya e ha lo scopo di &#039;&#039;&#039;limitare i problemi di clonazione/crollo&#039;&#039;&#039; nelle immagini ad alta risoluzione. Tuttavia, l’uso di Kohya HRFix può ridurre la varietà delle immagini generate, rendendole più identiche tra loro. Le impostazioni ottimali per Kohya HRFix possono variare a seconda delle esigenze specifiche dell’utente.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A potrait of a white cat, cozy house&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra e utilizzo Kohya HRFix.&lt;br /&gt;
&lt;br /&gt;
[[File:Gattobianco1.png|300px]] [[File:Gattokoya.png|500px]]&lt;br /&gt;
&lt;br /&gt;
Possiamo notare che nonostante presenti risultati migliori per quanto riguarda la risoluzione e dei dettagli, Kohya ha anche il contro di alterare leggermente l&#039;interpretazione del prompt il che, per artisti dedicati e che curano ogni dettaglio della generazione, può essere un grosso dealbreaker.&lt;br /&gt;
[[File:Kohya.png|centro|miniatura|923x923px|Confronto di tempistiche e risultati con e senza Kohya XRFix. fonte: https://www.reddit.com/r/StableDiffusion/comments/17z951a/kohyas_deepshrink_highres_fix_is_amazing_produces/]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;LatentModifier&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;componente&#039;&#039;&#039; che &#039;&#039;&#039;modifica i valori latenti&#039;&#039;&#039; durante il &#039;&#039;&#039;processo di diffusione&#039;&#039;&#039; in un modello di generazione di immagini. Queste modifiche possono influenzare vari aspetti dell’immagine finale, come la &#039;&#039;&#039;nitidezza&#039;&#039;&#039;, il &#039;&#039;&#039;contrasto&#039;&#039;&#039; e il &#039;&#039;&#039;rumore&#039;&#039;&#039;. Ci sono parametri &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A potrait of a white cat, cozy house&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra e utilizzo LatentModifier.&lt;br /&gt;
&lt;br /&gt;
[[File:Gattobianco1.png|300px]] [[File:Latentgatto.png|300px]]&lt;br /&gt;
&#039;&#039;&#039;Prompt: a cute kitten smoking a cigar&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: a cute kitten smoking a cigar&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
=== Sharpness Multiplier: ===&lt;br /&gt;
[[File:Image (3).png|sinistra|miniatura|313x313px|-100]]&lt;br /&gt;
[[File:Image (4).png|miniatura|326x326px|+100|centro]]&lt;br /&gt;
[[File:Screenshot (367).png|miniatura|851x851px|Tonemap Multiplier: 100|sinistra]]&lt;br /&gt;
[[File:Screenshot (368).png|miniatura|852x852px|Miglior risultato ottenuto dalla sperimentazione e relativi parametri|nessuno]]&lt;br /&gt;
==&#039;&#039;&#039;MultiDiffusion&#039;&#039;&#039;== &lt;br /&gt;
&lt;br /&gt;
è un &#039;&#039;&#039;framework&#039;&#039;&#039; unificato che consente la generazione di immagini &#039;&#039;&#039;versatili&#039;&#039;&#039; e &#039;&#039;&#039;controllabili&#039;&#039;&#039;, utilizzando un modello di diffusione text-to-image pre-addestrato. Al centro dell’approccio c’è un nuovo processo di generazione, basato su un compito di &#039;&#039;&#039;ottimizzazione&#039;&#039;&#039; che lega insieme &#039;&#039;&#039;più processi&#039;&#039;&#039; di generazione di diffusione con un &#039;&#039;&#039;insieme condiviso di parametri o vincoli&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;Never OOM&#039;&#039;&#039;== &lt;br /&gt;
Parametro puramente tecnico che permette di scaricare sempre i modelli dalla &#039;&#039;&#039;VRAM&#039;&#039;&#039;. Questo può essere utile se si utilizzano &#039;&#039;&#039;più software insieme&#039;&#039;&#039; e si desidera che Stable Diffusion utilizzi meno VRAM e ne dia &#039;&#039;&#039;una parte ad altri software&#039;&#039;&#039;, o quando si utilizzano vecchie estensioni che competono con la VRAM di Stable Diffusion. Non ha impatto sulla generazione. [[Category:strumento]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;Script&#039;&#039;&#039;==&lt;br /&gt;
Questa funzione è utilizzata per implementare &#039;&#039;&#039;script personalizzati&#039;&#039;&#039; che possono modificare il &#039;&#039;&#039;comportamento&#039;&#039;&#039; del processo di generazione di immagini.&lt;br /&gt;
*&#039;&#039;&#039;None&#039;&#039;&#039;: Questa è l’opzione predefinita che significa che non viene eseguito alcuno script.&lt;br /&gt;
*&#039;&#039;&#039;Prompt matrix&#039;&#039;&#039;: permette di testare e confrontare le modifiche che i prompt apportano alle immagini generate. Si possono strutturare i prompt in modo che ogni immagine nella matrice abbia un prompt che inizia con una frase comune.Per esempio, una immagine avrà il prompt “una ciotola di frutta, mele”, un’altra avrà “una ciotola di frutta, mele, pere” e così via.&lt;br /&gt;
*&#039;&#039;&#039;Prompts from file or textbox&#039;&#039;&#039;: permette di caricare i prompt da un file o da un textbox. Si può creare un prompt a piacimento, creare un numero x di variazioni su di esso, copiare quel file di testo, e ripetere fino a quando non hai centinaia di mini file di testo.&lt;br /&gt;
*&#039;&#039;&#039;X/Y/Z plot&#039;&#039;&#039;: permette di eseguire test sui propri prompt e impostazioni per vedere i risultati, senza impegnarsi in una generazione di immagini completa. Utilizzando un grafico, si possono confrontare i risultati per vedere quale combinazione di impostazioni funziona meglio.&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Txt2img_(Stable_Diffusion)&amp;diff=1545</id>
		<title>Txt2img (Stable Diffusion)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Txt2img_(Stable_Diffusion)&amp;diff=1545"/>
		<updated>2024-03-22T14:15:58Z</updated>

		<summary type="html">&lt;p&gt;Stefano: /* ControlNet */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Txt2img è un tool di [[Stable Diffusion]] che, come intuibile, genera un&#039;immagine .png basata su un prompt testuale. Il suo ultimo aggiornamento risale al 28 Ottobre 2022.&lt;br /&gt;
&lt;br /&gt;
I parametri di Txt2img non verranno descritti con massimo dettaglio dal momento che la finalità di questa Wiki entry è di fornire delle linee guida comprovate da sperimentazione diretta.&lt;br /&gt;
&lt;br /&gt;
* Il primo obiettivo è ricondurre con praticità il livello di performance riscontrato nel modello alle relative combinazioni di parametri.&lt;br /&gt;
&lt;br /&gt;
* Il secondo obiettivo è creare collegamenti tra ciascun parametro e la corrispondente sezione dell&#039;architettura.&lt;br /&gt;
&lt;br /&gt;
= Link di approfondimento =&lt;br /&gt;
Nel caso si voglia approfondire i setting si può visitare il github relativo alla UI: [https://github.com/AUTOMATIC1111/stable-diffusion-webui]&lt;br /&gt;
&lt;br /&gt;
Nel caso si voglia approfondire l&#039;architettura generale si può visitare il repository: [https://github.com/Stability-AI/stablediffusion]&lt;br /&gt;
&lt;br /&gt;
= Overview dell&#039;interfaccia =&lt;br /&gt;
[[File:Overview_diffusion.png|700x700px]]&lt;br /&gt;
&lt;br /&gt;
* [[Sampling method (Stable Diffusion)|Sampling method]]&lt;br /&gt;
&lt;br /&gt;
* Sampling steps:&lt;br /&gt;
&lt;br /&gt;
-Tra l&#039;1 e i 15 step: l&#039;immagine è relativamente sfocata.&lt;br /&gt;
&lt;br /&gt;
-Tra i 15 e i 25 step: L&#039;immagine è abbastanza chiara e di buona qualità.&lt;br /&gt;
&lt;br /&gt;
-Tra i 25 e i 45: La qualità dell&#039;immagine è molto alta e comprende la texture.&lt;br /&gt;
&lt;br /&gt;
-Dai 45 in poi: La loss function si stabilizza e si osserva una variazione minima nella risoluzione.&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:Sampling step 5.png|miniatura|5 step]]&lt;br /&gt;
![[File:10 step.png|miniatura|10 step]]&lt;br /&gt;
![[File:15 step.png|miniatura|15 step]]&lt;br /&gt;
|}&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:25 step.png|miniatura|25 step]]&lt;br /&gt;
![[File:40 step.png|miniatura|40 step]]&lt;br /&gt;
![[File:60 step.png|miniatura|60 step]]&lt;br /&gt;
|}&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:1 step.png|miniatura|1 step]]&lt;br /&gt;
![[File:150 step.png|miniatura|150 step]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
====== Upscaler: ======&lt;br /&gt;
L&#039;upscaling è il processo di aumentare la risoluzione di un&#039;immagine, cioè di ingrandirla, mantenendo al contempo la qualità visiva il più alta possibile e può essere ottenuto mediante algoritmi di interpolazione e tecniche avanzate di elaborazione delle immagini, che aggiungono dettagli artificiali per migliorare l&#039;aspetto dell&#039;immagine.&lt;br /&gt;
&lt;br /&gt;
- Hires Steps: migliorano la qualità dell&#039;immagine attraverso iterazioni aggiuntive durante il processo di generazione&lt;br /&gt;
&lt;br /&gt;
- Denoising strenght&lt;br /&gt;
&lt;br /&gt;
- Upscale by: L&#039;upscale di solito avviene dopo che l&#039;immagine è stata completamente generata. L&#039;immagine viene resa più grande senza perdere significativamente in qualità o dettaglio. Si esprime come un multiplier delle dimensioni dell&#039;immagine generata, da 1 a 4.&lt;br /&gt;
&lt;br /&gt;
* Width/Height: Dimensioni&lt;br /&gt;
&lt;br /&gt;
* Batch count: il numero di gruppi in cui i dati vengono divisi durante l&#039;elaborazione. Più batch count può significare una maggiore divisione dei dati durante il processo.&lt;br /&gt;
&lt;br /&gt;
* Batch size: quanti dati vengono elaborati contemporaneamente in ciascun gruppo. Un batch size più grande può accelerare il processo ma richiedere più memoria, mentre un batch size più piccolo può richiedere più tempo ma portare a risultati più precisi.&lt;br /&gt;
&lt;br /&gt;
* CFG Scale (Classifier Free Guidance Scale)&lt;br /&gt;
&lt;br /&gt;
* Seed: Un numero che inizializza il generatore di numeri casuali. Utilizzare lo stesso seed con gli stessi parametri di input produrrà sempre la stessa immagine. È utile per la riproducibilità o per fare piccoli aggiustamenti su un&#039;immagine esistente.&lt;br /&gt;
=Tecniche=&lt;br /&gt;
*[[TextualInversion]]&lt;br /&gt;
*[[Hypernetworks]]&lt;br /&gt;
*[[LoRA]]&lt;br /&gt;
&lt;br /&gt;
= Sperimentazioni =&lt;br /&gt;
Per effettuare un&#039;analisi bilanciata utilizzeremo gli stessi due metri di giudizio per valutare gli output:&lt;br /&gt;
&lt;br /&gt;
* Inception Score&lt;br /&gt;
* Visual Inspection by GPT4&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Denoising Strength =&lt;br /&gt;
Questo parametro si riferisce all&#039;intensità della &#039;&#039;&#039;riduzione del rumore&#039;&#039;&#039; applicata a un&#039;immagine. Il &amp;quot;rumore&amp;quot; è il termine usato per descrivere &#039;&#039;&#039;variazioni casuali e non desiderate&#039;&#039;&#039; nei livelli di luminosità o colore di un&#039;immagine, che possono renderla &#039;&#039;&#039;granulosa&#039;&#039;&#039; o &#039;&#039;&#039;offuscata&#039;&#039;&#039; e possono distorcere i dettagli.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
(Le sperimentazioni iniziano dopo il valore 0, poiché non si sta fornendo al modello l&#039;opportunità di &amp;quot;pulire&amp;quot; o trasformare il rumore in un&#039;immagine coerente basata sul prompt fornito)&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:Cooking_1.png|miniatura|200x200px|Denoising Strength = 0,1]]&lt;br /&gt;
|[[File:Cooking_2.png|miniatura|200x200px|Denoising Strength = 0,3]]&lt;br /&gt;
|[[File:Cooking_3.png|miniatura|200x200px|Denoising Strength = 0,7]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Impostando il Denoising Strenght a &amp;quot;0,1&amp;quot;, si nota un&#039;elevata quantità di rumore che rende indefiniti sia i dettagli che le sagome degli elementi a schermo. Aumentando de facto il valore del parametro si può osservare nettamente la differenza e l&#039;efficacia fra il valore intermedio (0,3) e quello iniziale, fino ad arrivare ad una qualità più che sufficiente impostando il parametro a &amp;quot;0,7&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
==Visual inspection by ChatGPT4==&lt;br /&gt;
Qui di seguito ci sarà una descrizione di ChatGPT4 sulla qualità delle immagini, in modo da comprendere se il modello riesca a individuare rumore e artefatti.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;&amp;lt;Le tre immagini mostrano una sequenza di azioni in una cucina, con un uomo che sembra impegnato nella preparazione di un piatto di carne. Nella prima immagine, il cuoco sta flambando la carne, creando un effetto visivo spettacolare con le fiamme che si alzano dalla padella. Nella seconda, appare concentrato nel girare o condire la carne, mentre nella terza è intento a cucinare, forse verificando la cottura o aggiungendo altri ingredienti.&lt;br /&gt;
Ogni immagine ha una qualità elevata, con dettagli nitidi e colori vivaci che catturano bene la scena della cucina. L&#039;illuminazione è ben gestita, evidenziando le azioni del cuoco e dando vita agli alimenti in preparazione. La composizione è dinamica e sembra che ci sia stata attenzione nel posizionare ogni elemento per creare una scena armoniosa che guida l&#039;occhio verso il soggetto principale senza distrazioni superflue.&lt;br /&gt;
Non si notano artefatti che suggeriscono una manipolazione digitale e le immagini trasmettono un senso di autenticità e professionalità. Ciò suggerisce che probabilmente sono state scattate durante una vera sessione di cucina e che fanno parte di una serie tematica ben pianificata. In sintesi, si tratta di una rappresentazione coerente e accattivante del processo culinario in azione.&amp;gt;&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dalla descrizione fornita, si nota come ChatGPT4 non riesca ad individuare le differenze sostanziali presenti fra le tre immagini, dimostrando comunque la capacità di saper descrivere il contesto in modo eccellente.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: CFG Scale =&lt;br /&gt;
Questo parametro controlla quanto fedelmente il processo di generazione delle immagini &#039;&#039;&#039;segue&#039;&#039;&#039; il prompt di testo fornito. Un valore più alto del CFG Scale significa che l&#039;immagine generata sarà più &#039;&#039;&#039;aderente&#039;&#039;&#039; al testo di input, ossia seguirà più strettamente le indicazioni date. In contrasto, un valore più basso dà al modello più libertà di &#039;&#039;&#039;inventare&#039;&#039;&#039; o di essere &#039;&#039;&#039;creativo&#039;&#039;&#039;, portando a risultati che possono &#039;&#039;&#039;deviare&#039;&#039;&#039; di più dal prompt originale.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:CookingCFG2.png|miniatura|200x200px|CFG = 1]]&lt;br /&gt;
|[[File:CookingCFG1.png|miniatura|200x200px|CFG = 3]]&lt;br /&gt;
|[[File:Cooking_3.png|miniatura|200x200px|CFG = 15]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Impostando il parametro al suo valore minimo si nota come il modello segua ben poco il prompt fornito. Viene presentato un ragazzo e non un uomo, situato in un posto che ricorda appena una cucina, mentre sta cucinando del cibo che ricorda vagamente la carne. Con un valore pari a &amp;quot;3&amp;quot;, il setting è già interamente riconoscibile. In questo caso sono solo le azioni che vengono rappresentate a schermo ad essere poco chiare, poiché si nota un uomo che ha messo una fetta di carne in un forno a legna. L&#039;ultima immagine mostra un contesto totalmente credibile: sia l&#039;ambiente che le azioni sono coerenti con il prompt fornito, benché gli unici difetti facilmente visibili sono gli oggetti che l&#039;uomo tiene in mano per cucinare, essendo poco definiti.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Share Attention in Batch =&lt;br /&gt;
Il parametro &amp;quot;&#039;&#039;&#039;Share attention in batch&#039;&#039;&#039;&amp;quot; è una funzionalità dove l&#039;attenzione del modello, ovvero la parte che il modello &amp;quot;considera&amp;quot; più importante durante la generazione dell&#039;immagine, viene &#039;&#039;&#039;condivisa&#039;&#039;&#039; o &#039;&#039;&#039;sincronizzata&#039;&#039;&#039; tra le immagini in un batch. Quando si generano &#039;&#039;&#039;più immagini contemporaneamente (un batch)&#039;&#039;&#039;, questo parametro fa in modo che tutte le immagini nel batch diano priorità a parti simili dell&#039;input, o che le caratteristiche stilistiche siano &#039;&#039;&#039;coerenti&#039;&#039;&#039; tra di loro. Per esempio, se si stanno generando immagini di volti e si vuole che l&#039;attenzione sia focalizzata sugli occhi per tutti i volti nel batch, attivare questa opzione potrebbe aiutare a garantire che tutti i volti generati abbiano occhi ben definiti e uno stile simile. Questo può essere particolarmente utile quando l&#039;obiettivo è creare una serie di immagini che devono essere visivamente coerenti l&#039;una con l&#039;altra.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:Cookingstyle1.png|miniatura|200x200px|SAIB = off]]&lt;br /&gt;
|[[File:Cookingstyle2.png|miniatura|200x200px|SAIB = on]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Hires steps =&lt;br /&gt;
Questo parametro si riferisce ai &#039;&#039;&#039;passaggi aggiuntivi&#039;&#039;&#039; di elaborazione che vengono eseguiti per &#039;&#039;&#039;rifinire&#039;&#039;&#039; l&#039;immagine dopo la sua creazione iniziale. Aumentare l&#039;Hire ssteps può migliorare la qualità dell&#039;immagine, ma &#039;&#039;&#039;rallenterà&#039;&#039;&#039; anche il processo di generazione.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on, &#039;&#039;&#039;the steak is being cooked on a pan&#039;&#039;&#039;&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:CookingHS1.png|miniatura|200x200px|Hire steps = 0]]&lt;br /&gt;
|[[File:CookingHS3.png|miniatura|200x200px|Hire steps = 100]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
In questa sperimentazione si notano poche differenze fra un&#039;immagine e l&#039;altra; fra l&#039;assenza del parametro e il suo valore massimo. L&#039;unico difetto individuabile si trova nella prima immagine dove l&#039;uomo sta cercando di cuocere la carne senza una padella.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: SelfAttentionGuidance Integrated =&lt;br /&gt;
Questa tecnica è progettata per rendere il processo di generazione delle immagini &#039;&#039;&#039;più semplice e veloce&#039;&#039;&#039; per l&#039;utente, migliorando allo stesso tempo la &#039;&#039;&#039;qualità&#039;&#039;&#039; delle immagini prodotte. La funzionalità integrata della &amp;quot;self attention guidance&amp;quot; può aiutare a creare immagini che appaiono &#039;&#039;&#039;più realistiche&#039;&#039;&#039; e con oggetti &#039;&#039;&#039;meglio definiti&#039;&#039;&#039; senza che l&#039;utente debba effettuare configurazioni complesse o &#039;&#039;&#039;passaggi supplementari&#039;&#039;&#039;.&lt;br /&gt;
Il termine &amp;quot;&#039;&#039;&#039;Scale&#039;&#039;&#039;&amp;quot; si riferisce all&#039;intensità con cui la guida basata sull&#039;auto-attenzione viene applicata durante il processo di generazione. Una &amp;quot;Scale&amp;quot; maggiore implica &#039;&#039;&#039;un&#039;adesione più forte al prompt testuale&#039;&#039;&#039; e può portare a immagini più &#039;&#039;&#039;dettagliate e coerenti con l&#039;input&#039;&#039;&#039;, anche se potrebbe ridurre la diversità delle immagini generate.&lt;br /&gt;
Il parametro &amp;quot;&#039;&#039;&#039;Blur Sigma&#039;&#039;&#039;&amp;quot;, invece, è associato al &#039;&#039;&#039;grado di sfocatura&#039;&#039;&#039; che viene applicato alle regioni selezionate di un&#039;immagine. Questo processo agisce dove le aree con maggiore auto-attenzione — ovvero quelle parti dell&#039;immagine che il modello riconosce come più importanti o informative — vengono &#039;&#039;&#039;sfocate&#039;&#039;&#039; leggermente. L&#039;idea è che &#039;&#039;&#039;enfatizzando&#039;&#039;&#039; il lavoro del modello su queste aree sfocate, il modello può generare risultati migliori, perfezionando le parti &#039;&#039;&#039;più significative&#039;&#039;&#039; dell&#039;immagine e &#039;&#039;&#039;riducendo&#039;&#039;&#039; potenzialmente il &#039;&#039;&#039;rumore&#039;&#039;&#039; o i &#039;&#039;&#039;dettagli superflui&#039;&#039;&#039; nelle regioni meno importanti.&lt;br /&gt;
I valori di default sono i seguenti: &amp;lt;&amp;lt;&#039;&#039;&#039;Scale = 0,5&#039;&#039;&#039;&amp;gt;&amp;gt; - &amp;lt;&amp;lt;&#039;&#039;&#039;Blur sigma = 2&#039;&#039;&#039;&amp;gt;&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on, &#039;&#039;&#039;the steak is being cooked on a pan&#039;&#039;&#039;&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:SAG_none_-_default.jpg|miniatura|200x200px|Tecnica omessa e valori default]]&lt;br /&gt;
|[[File:SAG_Scale.jpg|miniatura|200x200px|SAG Scale (da sinistra): -2; 1; 5]]&lt;br /&gt;
|[[File:SAG_BS.jpg|miniatura|200x200px|SAG BS (da sinistra): 0,1; 5; 10]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Nella prima immagine si osserva il confronto tra l&#039;immagine generata senza la tecnica del SAG e quella generata con quest&#039;ultima. Si evidenzia come l&#039;immagine generata con la tecnica con valori impostati di default sia di qualità inferiore alla prima, suggerendo che bisogna regolare i parametri di &amp;quot;scale&amp;quot; e di &amp;quot;blur sigma&amp;quot;. Per quanto riguarda le immagini generate variando solo il parametro di scale, si nota come si ottengano dei pessimi risultati impostando dei valori sia troppo bassi che troppo alti, e che quindi sia necessario lavorare nei valori intermedi (i risultati cambiano in base alla complessità del prompt). Relativamente al parametro di Blur sigma, si notano poche differenze fra le tre immagini, benché ci siano errori evidenti sul modo in cui l&#039;uomo tenga in mano degli oggetti difficilmente identificabili, soprattutto nei valori &amp;quot;0,1&amp;quot; e &amp;quot;10&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
=Altri componenti=&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:altrefunzioni.png|miniatura|500x500px|Tecniche]]&lt;br /&gt;
|}&lt;br /&gt;
==&#039;&#039;&#039;ControlNet&#039;&#039;&#039;== &lt;br /&gt;
Un modello di &#039;&#039;&#039;rete neurale&#039;&#039;&#039; progettato per controllare i modelli di Stable Diffusion, fornendo agli utenti un &#039;&#039;&#039;controllo dettagliato&#039;&#039;&#039; sugli output dei modelli di diffusione nelle attività di generazione di testo in immagine. ControlNet è una struttura di rete neurale che consente &#039;&#039;&#039;l&#039;aggiunta di condizioni aggiuntive&#039;&#039;&#039; per influenzare l&#039;output dei modelli di diffusione. Queste condizioni possono assumere molte forme, come [[Edge maps]], [[Depth maps]], e [[Semantic segmentations]]. L&#039;uso di ControlNet su Stable Diffusion offre numerosi vantaggi. Consente un controllo preciso sulla semantica e sulle caratteristiche del contenuto generato, consentendo la generazione di output più &#039;&#039;&#039;accurati&#039;&#039;&#039; e &#039;&#039;&#039;personalizzati&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
[[File:Controlnet.png|600px]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;DynamicThresholding (CFG-Fix)&#039;&#039;&#039;==  &lt;br /&gt;
è un &#039;&#039;&#039;filtro&#039;&#039;&#039; per migliorare le immagini. Aiuta a risolvere &#039;&#039;&#039;problemi di colore&#039;&#039;&#039; quando si usano &#039;&#039;&#039;impostazioni più alte&#039;&#039;&#039;. Queste ultime, si riferiscono a valori maggiori o livelli superiori, significa utilizzare valori più grandi per &#039;&#039;&#039;migliorare&#039;&#039;&#039; l’immagine. Ad esempio, se un’immagine è leggermente sbiadita e la si vuole rendere più nitida, è possibile aumentare determinati parametri. Tuttavia, a volte, quando si usano valori troppo alti, potrebbero verificarsi problemi di colore. Ecco dove entra in gioco CFG-Fix: risolve questi problemi di colore quando si utilizzano impostazioni elevate.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;FreeU&#039;&#039;&#039;== &lt;br /&gt;
Un componente aggiuntivo di Stable Diffusion che migliora la qualità dell&#039;immagine modificando il &#039;&#039;&#039;denoiser&#039;&#039;&#039; del modello. Il miglioramento avviene senza costi: nessun addestramento, nessun parametro aggiuntivo introdotto e nessun aumento della memoria o del tempo di campionamento.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A 25 year old mage, dress, full body, magic, lightning, rim light, moon, night&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra e utilizzo FreeU.&lt;br /&gt;
&lt;br /&gt;
[[File:maga.png|300px]] [[File:magaFreeU.png|300px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;HyperTile&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;metodo&#039;&#039;&#039; che ottimizza il livello di &#039;&#039;&#039;auto-attenzione&#039;&#039;&#039; all’interno dei modelli Stable-Diffusion. Questo porta a una &#039;&#039;&#039;riduzione del tempo di calcolo&#039;&#039;&#039; che varia da 1 a 4 volte, a seconda della &#039;&#039;&#039;risoluzione iniziale&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A man eating pasta&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra (&#039;&#039;&#039;15 sec&#039;&#039;&#039;) e utilizzo di Hypertile (&#039;&#039;&#039;7 sec&#039;&#039;&#039;)&lt;br /&gt;
&lt;br /&gt;
[[File:Uomopasta1.png|400px]] [[File:Uomopasta2.png|400px]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;Kohya HRFix&#039;&#039;&#039;== &lt;br /&gt;
è un’&#039;&#039;&#039;estensione&#039;&#039;&#039; utilizzata nei modelli Stable-Diffusion per migliorare la risoluzione delle immagini generate. Questa estensione è stata sviluppata da Kohya e ha lo scopo di &#039;&#039;&#039;limitare i problemi di clonazione/crollo&#039;&#039;&#039; nelle immagini ad alta risoluzione. Tuttavia, l’uso di Kohya HRFix può ridurre la varietà delle immagini generate, rendendole più identiche tra loro. Le impostazioni ottimali per Kohya HRFix possono variare a seconda delle esigenze specifiche dell’utente.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A potrait of a white cat, cozy house&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra e utilizzo Kohya HRFix.&lt;br /&gt;
&lt;br /&gt;
[[File:Gattobianco1.png|300px]] [[File:Gattokoya.png|500px]]&lt;br /&gt;
&lt;br /&gt;
Possiamo notare che nonostante presenti risultati migliori per quanto riguarda la risoluzione e dei dettagli, Kohya ha anche il contro di alterare leggermente l&#039;interpretazione del prompt il che, per artisti dedicati e che curano ogni dettaglio della generazione, può essere un grosso dealbreaker.&lt;br /&gt;
[[File:Kohya.png|centro|miniatura|923x923px|Confronto di tempistiche e risultati con e senza Kohya XRFix. fonte: https://www.reddit.com/r/StableDiffusion/comments/17z951a/kohyas_deepshrink_highres_fix_is_amazing_produces/]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;LatentModifier&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;componente&#039;&#039;&#039; che &#039;&#039;&#039;modifica i valori latenti&#039;&#039;&#039; durante il &#039;&#039;&#039;processo di diffusione&#039;&#039;&#039; in un modello di generazione di immagini. Queste modifiche possono influenzare vari aspetti dell’immagine finale, come la &#039;&#039;&#039;nitidezza&#039;&#039;&#039;, il &#039;&#039;&#039;contrasto&#039;&#039;&#039; e il &#039;&#039;&#039;rumore&#039;&#039;&#039;. Ci sono parametri &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A potrait of a white cat, cozy house&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra e utilizzo LatentModifier.&lt;br /&gt;
&lt;br /&gt;
[[File:Gattobianco1.png|300px]] [[File:Latentgatto.png|300px]]&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: a cute kitten smoking a cigar&#039;&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
Sharpness Multiplier:&lt;br /&gt;
[[File:Image (3).png|sinistra|miniatura|423x423px|-100]]&lt;br /&gt;
[[File:Image (4).png|miniatura|421x421px|+100]]&lt;br /&gt;
[[File:Screenshot (367).png|miniatura|969x969px|Tonemap Multiplier: 100]]&lt;br /&gt;
[[File:Screenshot (368).png|miniatura|971x971px|Miglior risultato ottenuto dalla sperimentazione e relativi parametri]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;MultiDiffusion&#039;&#039;&#039;== &lt;br /&gt;
&lt;br /&gt;
è un &#039;&#039;&#039;framework&#039;&#039;&#039; unificato che consente la generazione di immagini &#039;&#039;&#039;versatili&#039;&#039;&#039; e &#039;&#039;&#039;controllabili&#039;&#039;&#039;, utilizzando un modello di diffusione text-to-image pre-addestrato. Al centro dell’approccio c’è un nuovo processo di generazione, basato su un compito di &#039;&#039;&#039;ottimizzazione&#039;&#039;&#039; che lega insieme &#039;&#039;&#039;più processi&#039;&#039;&#039; di generazione di diffusione con un &#039;&#039;&#039;insieme condiviso di parametri o vincoli&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;Never OOM&#039;&#039;&#039;== &lt;br /&gt;
Parametro puramente tecnico che permette di scaricare sempre i modelli dalla &#039;&#039;&#039;VRAM&#039;&#039;&#039;. Questo può essere utile se si utilizzano &#039;&#039;&#039;più software insieme&#039;&#039;&#039; e si desidera che Stable Diffusion utilizzi meno VRAM e ne dia &#039;&#039;&#039;una parte ad altri software&#039;&#039;&#039;, o quando si utilizzano vecchie estensioni che competono con la VRAM di Stable Diffusion. Non ha impatto sulla generazione. [[Category:strumento]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;Script&#039;&#039;&#039;==&lt;br /&gt;
Questa funzione è utilizzata per implementare &#039;&#039;&#039;script personalizzati&#039;&#039;&#039; che possono modificare il &#039;&#039;&#039;comportamento&#039;&#039;&#039; del processo di generazione di immagini.&lt;br /&gt;
*&#039;&#039;&#039;None&#039;&#039;&#039;: Questa è l’opzione predefinita che significa che non viene eseguito alcuno script.&lt;br /&gt;
*&#039;&#039;&#039;Prompt matrix&#039;&#039;&#039;: permette di testare e confrontare le modifiche che i prompt apportano alle immagini generate. Si possono strutturare i prompt in modo che ogni immagine nella matrice abbia un prompt che inizia con una frase comune.Per esempio, una immagine avrà il prompt “una ciotola di frutta, mele”, un’altra avrà “una ciotola di frutta, mele, pere” e così via.&lt;br /&gt;
*&#039;&#039;&#039;Prompts from file or textbox&#039;&#039;&#039;: permette di caricare i prompt da un file o da un textbox. Si può creare un prompt a piacimento, creare un numero x di variazioni su di esso, copiare quel file di testo, e ripetere fino a quando non hai centinaia di mini file di testo.&lt;br /&gt;
*&#039;&#039;&#039;X/Y/Z plot&#039;&#039;&#039;: permette di eseguire test sui propri prompt e impostazioni per vedere i risultati, senza impegnarsi in una generazione di immagini completa. Utilizzando un grafico, si possono confrontare i risultati per vedere quale combinazione di impostazioni funziona meglio.&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=File:Controlnet.png&amp;diff=1542</id>
		<title>File:Controlnet.png</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=File:Controlnet.png&amp;diff=1542"/>
		<updated>2024-03-22T14:14:34Z</updated>

		<summary type="html">&lt;p&gt;Stefano: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Txt2img_(Stable_Diffusion)&amp;diff=1539</id>
		<title>Txt2img (Stable Diffusion)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Txt2img_(Stable_Diffusion)&amp;diff=1539"/>
		<updated>2024-03-22T14:10:41Z</updated>

		<summary type="html">&lt;p&gt;Stefano: /* HyperTile */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Txt2img è un tool di [[Stable Diffusion]] che, come intuibile, genera un&#039;immagine .png basata su un prompt testuale. Il suo ultimo aggiornamento risale al 28 Ottobre 2022.&lt;br /&gt;
&lt;br /&gt;
I parametri di Txt2img non verranno descritti con massimo dettaglio dal momento che la finalità di questa Wiki entry è di fornire delle linee guida comprovate da sperimentazione diretta.&lt;br /&gt;
&lt;br /&gt;
* Il primo obiettivo è ricondurre con praticità il livello di performance riscontrato nel modello alle relative combinazioni di parametri.&lt;br /&gt;
&lt;br /&gt;
* Il secondo obiettivo è creare collegamenti tra ciascun parametro e la corrispondente sezione dell&#039;architettura.&lt;br /&gt;
&lt;br /&gt;
= Link di approfondimento =&lt;br /&gt;
Nel caso si voglia approfondire i setting si può visitare il github relativo alla UI: [https://github.com/AUTOMATIC1111/stable-diffusion-webui]&lt;br /&gt;
&lt;br /&gt;
Nel caso si voglia approfondire l&#039;architettura generale si può visitare il repository: [https://github.com/Stability-AI/stablediffusion]&lt;br /&gt;
&lt;br /&gt;
= Overview dell&#039;interfaccia =&lt;br /&gt;
[[File:Overview_diffusion.png|700x700px]]&lt;br /&gt;
&lt;br /&gt;
* [[Sampling method (Stable Diffusion)|Sampling method]]&lt;br /&gt;
&lt;br /&gt;
* Sampling steps:&lt;br /&gt;
&lt;br /&gt;
-Tra l&#039;1 e i 15 step: l&#039;immagine è relativamente sfocata.&lt;br /&gt;
&lt;br /&gt;
-Tra i 15 e i 25 step: L&#039;immagine è abbastanza chiara e di buona qualità.&lt;br /&gt;
&lt;br /&gt;
-Tra i 25 e i 45: La qualità dell&#039;immagine è molto alta e comprende la texture.&lt;br /&gt;
&lt;br /&gt;
-Dai 45 in poi: La loss function si stabilizza e si osserva una variazione minima nella risoluzione.&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:Sampling step 5.png|miniatura|5 step]]&lt;br /&gt;
![[File:10 step.png|miniatura|10 step]]&lt;br /&gt;
![[File:15 step.png|miniatura|15 step]]&lt;br /&gt;
|}&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:25 step.png|miniatura|25 step]]&lt;br /&gt;
![[File:40 step.png|miniatura|40 step]]&lt;br /&gt;
![[File:60 step.png|miniatura|60 step]]&lt;br /&gt;
|}&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:1 step.png|miniatura|1 step]]&lt;br /&gt;
![[File:150 step.png|miniatura|150 step]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
====== Upscaler: ======&lt;br /&gt;
L&#039;upscaling è il processo di aumentare la risoluzione di un&#039;immagine, cioè di ingrandirla, mantenendo al contempo la qualità visiva il più alta possibile e può essere ottenuto mediante algoritmi di interpolazione e tecniche avanzate di elaborazione delle immagini, che aggiungono dettagli artificiali per migliorare l&#039;aspetto dell&#039;immagine.&lt;br /&gt;
&lt;br /&gt;
- Hires Steps: migliorano la qualità dell&#039;immagine attraverso iterazioni aggiuntive durante il processo di generazione&lt;br /&gt;
&lt;br /&gt;
- Denoising strenght&lt;br /&gt;
&lt;br /&gt;
- Upscale by: L&#039;upscale di solito avviene dopo che l&#039;immagine è stata completamente generata. L&#039;immagine viene resa più grande senza perdere significativamente in qualità o dettaglio. Si esprime come un multiplier delle dimensioni dell&#039;immagine generata, da 1 a 4.&lt;br /&gt;
&lt;br /&gt;
* Width/Height: Dimensioni&lt;br /&gt;
&lt;br /&gt;
* Batch count: il numero di gruppi in cui i dati vengono divisi durante l&#039;elaborazione. Più batch count può significare una maggiore divisione dei dati durante il processo.&lt;br /&gt;
&lt;br /&gt;
* Batch size: quanti dati vengono elaborati contemporaneamente in ciascun gruppo. Un batch size più grande può accelerare il processo ma richiedere più memoria, mentre un batch size più piccolo può richiedere più tempo ma portare a risultati più precisi.&lt;br /&gt;
&lt;br /&gt;
* CFG Scale (Classifier Free Guidance Scale)&lt;br /&gt;
&lt;br /&gt;
* Seed: Un numero che inizializza il generatore di numeri casuali. Utilizzare lo stesso seed con gli stessi parametri di input produrrà sempre la stessa immagine. È utile per la riproducibilità o per fare piccoli aggiustamenti su un&#039;immagine esistente.&lt;br /&gt;
=Tecniche=&lt;br /&gt;
*[[TextualInversion]]&lt;br /&gt;
*[[Hypernetworks]]&lt;br /&gt;
*[[LoRA]]&lt;br /&gt;
&lt;br /&gt;
= Sperimentazioni =&lt;br /&gt;
Per effettuare un&#039;analisi bilanciata utilizzeremo gli stessi due metri di giudizio per valutare gli output:&lt;br /&gt;
&lt;br /&gt;
* Inception Score&lt;br /&gt;
* Visual Inspection by GPT4&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Denoising Strength =&lt;br /&gt;
Questo parametro si riferisce all&#039;intensità della &#039;&#039;&#039;riduzione del rumore&#039;&#039;&#039; applicata a un&#039;immagine. Il &amp;quot;rumore&amp;quot; è il termine usato per descrivere &#039;&#039;&#039;variazioni casuali e non desiderate&#039;&#039;&#039; nei livelli di luminosità o colore di un&#039;immagine, che possono renderla &#039;&#039;&#039;granulosa&#039;&#039;&#039; o &#039;&#039;&#039;offuscata&#039;&#039;&#039; e possono distorcere i dettagli.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
(Le sperimentazioni iniziano dopo il valore 0, poiché non si sta fornendo al modello l&#039;opportunità di &amp;quot;pulire&amp;quot; o trasformare il rumore in un&#039;immagine coerente basata sul prompt fornito)&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:Cooking_1.png|miniatura|200x200px|Denoising Strength = 0,1]]&lt;br /&gt;
|[[File:Cooking_2.png|miniatura|200x200px|Denoising Strength = 0,3]]&lt;br /&gt;
|[[File:Cooking_3.png|miniatura|200x200px|Denoising Strength = 0,7]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Impostando il Denoising Strenght a &amp;quot;0,1&amp;quot;, si nota un&#039;elevata quantità di rumore che rende indefiniti sia i dettagli che le sagome degli elementi a schermo. Aumentando de facto il valore del parametro si può osservare nettamente la differenza e l&#039;efficacia fra il valore intermedio (0,3) e quello iniziale, fino ad arrivare ad una qualità più che sufficiente impostando il parametro a &amp;quot;0,7&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
==Visual inspection by ChatGPT4==&lt;br /&gt;
Qui di seguito ci sarà una descrizione di ChatGPT4 sulla qualità delle immagini, in modo da comprendere se il modello riesca a individuare rumore e artefatti.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;&amp;lt;Le tre immagini mostrano una sequenza di azioni in una cucina, con un uomo che sembra impegnato nella preparazione di un piatto di carne. Nella prima immagine, il cuoco sta flambando la carne, creando un effetto visivo spettacolare con le fiamme che si alzano dalla padella. Nella seconda, appare concentrato nel girare o condire la carne, mentre nella terza è intento a cucinare, forse verificando la cottura o aggiungendo altri ingredienti.&lt;br /&gt;
Ogni immagine ha una qualità elevata, con dettagli nitidi e colori vivaci che catturano bene la scena della cucina. L&#039;illuminazione è ben gestita, evidenziando le azioni del cuoco e dando vita agli alimenti in preparazione. La composizione è dinamica e sembra che ci sia stata attenzione nel posizionare ogni elemento per creare una scena armoniosa che guida l&#039;occhio verso il soggetto principale senza distrazioni superflue.&lt;br /&gt;
Non si notano artefatti che suggeriscono una manipolazione digitale e le immagini trasmettono un senso di autenticità e professionalità. Ciò suggerisce che probabilmente sono state scattate durante una vera sessione di cucina e che fanno parte di una serie tematica ben pianificata. In sintesi, si tratta di una rappresentazione coerente e accattivante del processo culinario in azione.&amp;gt;&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dalla descrizione fornita, si nota come ChatGPT4 non riesca ad individuare le differenze sostanziali presenti fra le tre immagini, dimostrando comunque la capacità di saper descrivere il contesto in modo eccellente.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: CFG Scale =&lt;br /&gt;
Questo parametro controlla quanto fedelmente il processo di generazione delle immagini &#039;&#039;&#039;segue&#039;&#039;&#039; il prompt di testo fornito. Un valore più alto del CFG Scale significa che l&#039;immagine generata sarà più &#039;&#039;&#039;aderente&#039;&#039;&#039; al testo di input, ossia seguirà più strettamente le indicazioni date. In contrasto, un valore più basso dà al modello più libertà di &#039;&#039;&#039;inventare&#039;&#039;&#039; o di essere &#039;&#039;&#039;creativo&#039;&#039;&#039;, portando a risultati che possono &#039;&#039;&#039;deviare&#039;&#039;&#039; di più dal prompt originale.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:CookingCFG2.png|miniatura|200x200px|CFG = 1]]&lt;br /&gt;
|[[File:CookingCFG1.png|miniatura|200x200px|CFG = 3]]&lt;br /&gt;
|[[File:Cooking_3.png|miniatura|200x200px|CFG = 15]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Impostando il parametro al suo valore minimo si nota come il modello segua ben poco il prompt fornito. Viene presentato un ragazzo e non un uomo, situato in un posto che ricorda appena una cucina, mentre sta cucinando del cibo che ricorda vagamente la carne. Con un valore pari a &amp;quot;3&amp;quot;, il setting è già interamente riconoscibile. In questo caso sono solo le azioni che vengono rappresentate a schermo ad essere poco chiare, poiché si nota un uomo che ha messo una fetta di carne in un forno a legna. L&#039;ultima immagine mostra un contesto totalmente credibile: sia l&#039;ambiente che le azioni sono coerenti con il prompt fornito, benché gli unici difetti facilmente visibili sono gli oggetti che l&#039;uomo tiene in mano per cucinare, essendo poco definiti.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Share Attention in Batch =&lt;br /&gt;
Il parametro &amp;quot;&#039;&#039;&#039;Share attention in batch&#039;&#039;&#039;&amp;quot; è una funzionalità dove l&#039;attenzione del modello, ovvero la parte che il modello &amp;quot;considera&amp;quot; più importante durante la generazione dell&#039;immagine, viene &#039;&#039;&#039;condivisa&#039;&#039;&#039; o &#039;&#039;&#039;sincronizzata&#039;&#039;&#039; tra le immagini in un batch. Quando si generano &#039;&#039;&#039;più immagini contemporaneamente (un batch)&#039;&#039;&#039;, questo parametro fa in modo che tutte le immagini nel batch diano priorità a parti simili dell&#039;input, o che le caratteristiche stilistiche siano &#039;&#039;&#039;coerenti&#039;&#039;&#039; tra di loro. Per esempio, se si stanno generando immagini di volti e si vuole che l&#039;attenzione sia focalizzata sugli occhi per tutti i volti nel batch, attivare questa opzione potrebbe aiutare a garantire che tutti i volti generati abbiano occhi ben definiti e uno stile simile. Questo può essere particolarmente utile quando l&#039;obiettivo è creare una serie di immagini che devono essere visivamente coerenti l&#039;una con l&#039;altra.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:Cookingstyle1.png|miniatura|200x200px|SAIB = off]]&lt;br /&gt;
|[[File:Cookingstyle2.png|miniatura|200x200px|SAIB = on]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Hires steps =&lt;br /&gt;
Questo parametro si riferisce ai &#039;&#039;&#039;passaggi aggiuntivi&#039;&#039;&#039; di elaborazione che vengono eseguiti per &#039;&#039;&#039;rifinire&#039;&#039;&#039; l&#039;immagine dopo la sua creazione iniziale. Aumentare l&#039;Hire ssteps può migliorare la qualità dell&#039;immagine, ma &#039;&#039;&#039;rallenterà&#039;&#039;&#039; anche il processo di generazione.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on, &#039;&#039;&#039;the steak is being cooked on a pan&#039;&#039;&#039;&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:CookingHS1.png|miniatura|200x200px|Hire steps = 0]]&lt;br /&gt;
|[[File:CookingHS3.png|miniatura|200x200px|Hire steps = 100]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
In questa sperimentazione si notano poche differenze fra un&#039;immagine e l&#039;altra; fra l&#039;assenza del parametro e il suo valore massimo. L&#039;unico difetto individuabile si trova nella prima immagine dove l&#039;uomo sta cercando di cuocere la carne senza una padella.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: SelfAttentionGuidance Integrated =&lt;br /&gt;
Questa tecnica è progettata per rendere il processo di generazione delle immagini &#039;&#039;&#039;più semplice e veloce&#039;&#039;&#039; per l&#039;utente, migliorando allo stesso tempo la &#039;&#039;&#039;qualità&#039;&#039;&#039; delle immagini prodotte. La funzionalità integrata della &amp;quot;self attention guidance&amp;quot; può aiutare a creare immagini che appaiono &#039;&#039;&#039;più realistiche&#039;&#039;&#039; e con oggetti &#039;&#039;&#039;meglio definiti&#039;&#039;&#039; senza che l&#039;utente debba effettuare configurazioni complesse o &#039;&#039;&#039;passaggi supplementari&#039;&#039;&#039;.&lt;br /&gt;
Il termine &amp;quot;&#039;&#039;&#039;Scale&#039;&#039;&#039;&amp;quot; si riferisce all&#039;intensità con cui la guida basata sull&#039;auto-attenzione viene applicata durante il processo di generazione. Una &amp;quot;Scale&amp;quot; maggiore implica &#039;&#039;&#039;un&#039;adesione più forte al prompt testuale&#039;&#039;&#039; e può portare a immagini più &#039;&#039;&#039;dettagliate e coerenti con l&#039;input&#039;&#039;&#039;, anche se potrebbe ridurre la diversità delle immagini generate.&lt;br /&gt;
Il parametro &amp;quot;&#039;&#039;&#039;Blur Sigma&#039;&#039;&#039;&amp;quot;, invece, è associato al &#039;&#039;&#039;grado di sfocatura&#039;&#039;&#039; che viene applicato alle regioni selezionate di un&#039;immagine. Questo processo agisce dove le aree con maggiore auto-attenzione — ovvero quelle parti dell&#039;immagine che il modello riconosce come più importanti o informative — vengono &#039;&#039;&#039;sfocate&#039;&#039;&#039; leggermente. L&#039;idea è che &#039;&#039;&#039;enfatizzando&#039;&#039;&#039; il lavoro del modello su queste aree sfocate, il modello può generare risultati migliori, perfezionando le parti &#039;&#039;&#039;più significative&#039;&#039;&#039; dell&#039;immagine e &#039;&#039;&#039;riducendo&#039;&#039;&#039; potenzialmente il &#039;&#039;&#039;rumore&#039;&#039;&#039; o i &#039;&#039;&#039;dettagli superflui&#039;&#039;&#039; nelle regioni meno importanti.&lt;br /&gt;
I valori di default sono i seguenti: &amp;lt;&amp;lt;&#039;&#039;&#039;Scale = 0,5&#039;&#039;&#039;&amp;gt;&amp;gt; - &amp;lt;&amp;lt;&#039;&#039;&#039;Blur sigma = 2&#039;&#039;&#039;&amp;gt;&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on, &#039;&#039;&#039;the steak is being cooked on a pan&#039;&#039;&#039;&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:SAG_none_-_default.jpg|miniatura|200x200px|Tecnica omessa e valori default]]&lt;br /&gt;
|[[File:SAG_Scale.jpg|miniatura|200x200px|SAG Scale (da sinistra): -2; 1; 5]]&lt;br /&gt;
|[[File:SAG_BS.jpg|miniatura|200x200px|SAG BS (da sinistra): 0,1; 5; 10]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Nella prima immagine si osserva il confronto tra l&#039;immagine generata senza la tecnica del SAG e quella generata con quest&#039;ultima. Si evidenzia come l&#039;immagine generata con la tecnica con valori impostati di default sia di qualità inferiore alla prima, suggerendo che bisogna regolare i parametri di &amp;quot;scale&amp;quot; e di &amp;quot;blur sigma&amp;quot;. Per quanto riguarda le immagini generate variando solo il parametro di scale, si nota come si ottengano dei pessimi risultati impostando dei valori sia troppo bassi che troppo alti, e che quindi sia necessario lavorare nei valori intermedi (i risultati cambiano in base alla complessità del prompt). Relativamente al parametro di Blur sigma, si notano poche differenze fra le tre immagini, benché ci siano errori evidenti sul modo in cui l&#039;uomo tenga in mano degli oggetti difficilmente identificabili, soprattutto nei valori &amp;quot;0,1&amp;quot; e &amp;quot;10&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
=Altri componenti=&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:altrefunzioni.png|miniatura|500x500px|Tecniche]]&lt;br /&gt;
|}&lt;br /&gt;
==&#039;&#039;&#039;ControlNet&#039;&#039;&#039;== &lt;br /&gt;
Un modello di &#039;&#039;&#039;rete neurale&#039;&#039;&#039; progettato per controllare i modelli di Stable Diffusion, fornendo agli utenti un &#039;&#039;&#039;controllo dettagliato&#039;&#039;&#039; sugli output dei modelli di diffusione nelle attività di generazione di testo in immagine. ControlNet è una struttura di rete neurale che consente &#039;&#039;&#039;l&#039;aggiunta di condizioni aggiuntive&#039;&#039;&#039; per influenzare l&#039;output dei modelli di diffusione. Queste condizioni possono assumere molte forme, come [[Edge maps]], [[Depth maps]], e [[Semantic segmentations]]. L&#039;uso di ControlNet su Stable Diffusion offre numerosi vantaggi. Consente un controllo preciso sulla semantica e sulle caratteristiche del contenuto generato, consentendo la generazione di output più &#039;&#039;&#039;accurati&#039;&#039;&#039; e &#039;&#039;&#039;personalizzati&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;DynamicThresholding (CFG-Fix)&#039;&#039;&#039;==  &lt;br /&gt;
è un &#039;&#039;&#039;filtro&#039;&#039;&#039; per migliorare le immagini. Aiuta a risolvere &#039;&#039;&#039;problemi di colore&#039;&#039;&#039; quando si usano &#039;&#039;&#039;impostazioni più alte&#039;&#039;&#039;. Queste ultime, si riferiscono a valori maggiori o livelli superiori, significa utilizzare valori più grandi per &#039;&#039;&#039;migliorare&#039;&#039;&#039; l’immagine. Ad esempio, se un’immagine è leggermente sbiadita e la si vuole rendere più nitida, è possibile aumentare determinati parametri. Tuttavia, a volte, quando si usano valori troppo alti, potrebbero verificarsi problemi di colore. Ecco dove entra in gioco CFG-Fix: risolve questi problemi di colore quando si utilizzano impostazioni elevate.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;FreeU&#039;&#039;&#039;== &lt;br /&gt;
Un componente aggiuntivo di Stable Diffusion che migliora la qualità dell&#039;immagine modificando il &#039;&#039;&#039;denoiser&#039;&#039;&#039; del modello. Il miglioramento avviene senza costi: nessun addestramento, nessun parametro aggiuntivo introdotto e nessun aumento della memoria o del tempo di campionamento.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A 25 year old mage, dress, full body, magic, lightning, rim light, moon, night&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra e utilizzo FreeU.&lt;br /&gt;
&lt;br /&gt;
[[File:maga.png|300px]] [[File:magaFreeU.png|300px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;HyperTile&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;metodo&#039;&#039;&#039; che ottimizza il livello di &#039;&#039;&#039;auto-attenzione&#039;&#039;&#039; all’interno dei modelli Stable-Diffusion. Questo porta a una &#039;&#039;&#039;riduzione del tempo di calcolo&#039;&#039;&#039; che varia da 1 a 4 volte, a seconda della &#039;&#039;&#039;risoluzione iniziale&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A man eating pasta&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra (&#039;&#039;&#039;15 sec&#039;&#039;&#039;) e utilizzo di Hypertile (&#039;&#039;&#039;7 sec&#039;&#039;&#039;)&lt;br /&gt;
&lt;br /&gt;
[[File:Uomopasta1.png|400px]] [[File:Uomopasta2.png|400px]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;Kohya HRFix&#039;&#039;&#039;== &lt;br /&gt;
è un’&#039;&#039;&#039;estensione&#039;&#039;&#039; utilizzata nei modelli Stable-Diffusion per migliorare la risoluzione delle immagini generate. Questa estensione è stata sviluppata da Kohya e ha lo scopo di &#039;&#039;&#039;limitare i problemi di clonazione/crollo&#039;&#039;&#039; nelle immagini ad alta risoluzione. Tuttavia, l’uso di Kohya HRFix può ridurre la varietà delle immagini generate, rendendole più identiche tra loro. Le impostazioni ottimali per Kohya HRFix possono variare a seconda delle esigenze specifiche dell’utente.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A potrait of a white cat, cozy house&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra e utilizzo Kohya HRFix.&lt;br /&gt;
&lt;br /&gt;
[[File:Gattobianco1.png|300px]] [[File:Gattokoya.png|500px]]&lt;br /&gt;
&lt;br /&gt;
Possiamo notare che nonostante presenti risultati migliori per quanto riguarda la risoluzione e dei dettagli, Kohya ha anche il contro di alterare leggermente l&#039;interpretazione del prompt il che, per artisti dedicati e che curano ogni dettaglio della generazione, può essere un grosso dealbreaker.&lt;br /&gt;
[[File:Kohya.png|centro|miniatura|923x923px|Confronto di tempistiche e risultati con e senza Kohya XRFix. fonte: https://www.reddit.com/r/StableDiffusion/comments/17z951a/kohyas_deepshrink_highres_fix_is_amazing_produces/]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;LatentModifier&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;componente&#039;&#039;&#039; che &#039;&#039;&#039;modifica i valori latenti&#039;&#039;&#039; durante il &#039;&#039;&#039;processo di diffusione&#039;&#039;&#039; in un modello di generazione di immagini. Queste modifiche possono influenzare vari aspetti dell’immagine finale, come la &#039;&#039;&#039;nitidezza&#039;&#039;&#039;, il &#039;&#039;&#039;contrasto&#039;&#039;&#039; e il &#039;&#039;&#039;rumore&#039;&#039;&#039;. Ci sono parametri &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A potrait of a white cat, cozy house&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra e utilizzo LatentModifier.&lt;br /&gt;
&lt;br /&gt;
[[File:Gattobianco1.png|300px]] [[File:Latentgatto.png|300px]]&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: a cute kitten smoking a cigar&#039;&#039;&#039; &lt;br /&gt;
&lt;br /&gt;
Sharpness Multiplier:&lt;br /&gt;
[[File:Image (3).png|sinistra|miniatura|423x423px|-100]]&lt;br /&gt;
[[File:Image (4).png|miniatura|421x421px|+100]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:Screenshot (367).png|miniatura|969x969px|Tonemap Multiplier: 100]]&lt;br /&gt;
[[File:Screenshot (368).png|miniatura|971x971px|Miglior risultato ottenuto dalla sperimentazione e relativi parametri]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;MultiDiffusion&#039;&#039;&#039;== &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Extra Noise Settings ==&lt;br /&gt;
[[File:Screenshot (372).png|miniatura|996x996px]]&lt;br /&gt;
[[File:Screenshot (371).png|miniatura|997x997px]]&lt;br /&gt;
[[File:Screenshot (369).png|miniatura|999x999px]]&lt;br /&gt;
[[File:Screenshot (370).png|miniatura|1003x1003px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
è un &#039;&#039;&#039;framework&#039;&#039;&#039; unificato che consente la generazione di immagini &#039;&#039;&#039;versatili&#039;&#039;&#039; e &#039;&#039;&#039;controllabili&#039;&#039;&#039;, utilizzando un modello di diffusione text-to-image pre-&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
addestrato. Al centro dell’approccio c’è un nuovo processo di generazione, basato su un compito di &#039;&#039;&#039;ottimizzazione&#039;&#039;&#039; che lega insieme &#039;&#039;&#039;più processi&#039;&#039;&#039; di generazione di diffusione con un &#039;&#039;&#039;insieme condiviso di parametri o vincoli&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;Never OOM&#039;&#039;&#039;== &lt;br /&gt;
Parametro puramente tecnico che permette di scaricare sempre i modelli dalla &#039;&#039;&#039;VRAM&#039;&#039;&#039;. Questo può essere utile se si utilizzano &#039;&#039;&#039;più software insieme&#039;&#039;&#039; e si desidera che Stable Diffusion utilizzi meno VRAM e ne dia &#039;&#039;&#039;una parte ad altri software&#039;&#039;&#039;, o quando si utilizzano vecchie estensioni che competono con la VRAM di Stable Diffusion. Non ha impatto sulla generazione. [[Category:strumento]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;Script&#039;&#039;&#039;==&lt;br /&gt;
Questa funzione è utilizzata per implementare &#039;&#039;&#039;script personalizzati&#039;&#039;&#039; che possono modificare il &#039;&#039;&#039;comportamento&#039;&#039;&#039; del processo di generazione di immagini.&lt;br /&gt;
*&#039;&#039;&#039;None&#039;&#039;&#039;: Questa è l’opzione predefinita che significa che non viene eseguito alcuno script.&lt;br /&gt;
*&#039;&#039;&#039;Prompt matrix&#039;&#039;&#039;: permette di testare e confrontare le modifiche che i prompt apportano alle immagini generate. Si possono strutturare i prompt in modo che ogni immagine nella matrice abbia un prompt che inizia con una frase comune.Per esempio, una immagine avrà il prompt “una ciotola di frutta, mele”, un’altra avrà “una ciotola di frutta, mele, pere” e così via.&lt;br /&gt;
*&#039;&#039;&#039;Prompts from file or textbox&#039;&#039;&#039;: permette di caricare i prompt da un file o da un textbox. Si può creare un prompt a piacimento, creare un numero x di variazioni su di esso, copiare quel file di testo, e ripetere fino a quando non hai centinaia di mini file di testo.&lt;br /&gt;
*&#039;&#039;&#039;X/Y/Z plot&#039;&#039;&#039;: permette di eseguire test sui propri prompt e impostazioni per vedere i risultati, senza impegnarsi in una generazione di immagini completa. Utilizzando un grafico, si possono confrontare i risultati per vedere quale combinazione di impostazioni funziona meglio.&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Txt2img_(Stable_Diffusion)&amp;diff=1529</id>
		<title>Txt2img (Stable Diffusion)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Txt2img_(Stable_Diffusion)&amp;diff=1529"/>
		<updated>2024-03-22T12:15:53Z</updated>

		<summary type="html">&lt;p&gt;Stefano: /* HyperTile */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Txt2img è un tool di [[Stable Diffusion]] che, come intuibile, genera un&#039;immagine .png basata su un prompt testuale. Il suo ultimo aggiornamento risale al 28 Ottobre 2022.&lt;br /&gt;
&lt;br /&gt;
I parametri di Txt2img non verranno descritti con massimo dettaglio dal momento che la finalità di questa Wiki entry è di fornire delle linee guida comprovate da sperimentazione diretta.&lt;br /&gt;
&lt;br /&gt;
* Il primo obiettivo è ricondurre con praticità il livello di performance riscontrato nel modello alle relative combinazioni di parametri.&lt;br /&gt;
&lt;br /&gt;
* Il secondo obiettivo è creare collegamenti tra ciascun parametro e la corrispondente sezione dell&#039;architettura.&lt;br /&gt;
&lt;br /&gt;
= Link di approfondimento =&lt;br /&gt;
Nel caso si voglia approfondire i setting si può visitare il github relativo alla UI: [https://github.com/AUTOMATIC1111/stable-diffusion-webui]&lt;br /&gt;
&lt;br /&gt;
Nel caso si voglia approfondire l&#039;architettura generale si può visitare il repository: [https://github.com/Stability-AI/stablediffusion]&lt;br /&gt;
&lt;br /&gt;
= Overview dell&#039;interfaccia =&lt;br /&gt;
[[File:Overview_diffusion.png|700x700px]]&lt;br /&gt;
&lt;br /&gt;
* [[Sampling method (Stable Diffusion)|Sampling method]]&lt;br /&gt;
&lt;br /&gt;
* Sampling steps:&lt;br /&gt;
&lt;br /&gt;
-Tra l&#039;1 e i 15 step: l&#039;immagine è relativamente sfocata.&lt;br /&gt;
&lt;br /&gt;
-Tra i 15 e i 25 step: L&#039;immagine è abbastanza chiara e di buona qualità.&lt;br /&gt;
&lt;br /&gt;
-Tra i 25 e i 45: La qualità dell&#039;immagine è molto alta e comprende la texture.&lt;br /&gt;
&lt;br /&gt;
-Dai 45 in poi: La loss function si stabilizza e si osserva una variazione minima nella risoluzione.&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:Sampling step 5.png|miniatura|5 step]]&lt;br /&gt;
![[File:10 step.png|miniatura|10 step]]&lt;br /&gt;
![[File:15 step.png|miniatura|15 step]]&lt;br /&gt;
|}&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:25 step.png|miniatura|25 step]]&lt;br /&gt;
![[File:40 step.png|miniatura|40 step]]&lt;br /&gt;
![[File:60 step.png|miniatura|60 step]]&lt;br /&gt;
|}&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:1 step.png|miniatura|1 step]]&lt;br /&gt;
![[File:150 step.png|miniatura|150 step]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
====== Upscaler: ======&lt;br /&gt;
L&#039;upscaling è il processo di aumentare la risoluzione di un&#039;immagine, cioè di ingrandirla, mantenendo al contempo la qualità visiva il più alta possibile e può essere ottenuto mediante algoritmi di interpolazione e tecniche avanzate di elaborazione delle immagini, che aggiungono dettagli artificiali per migliorare l&#039;aspetto dell&#039;immagine.&lt;br /&gt;
&lt;br /&gt;
- Hires Steps: migliorano la qualità dell&#039;immagine attraverso iterazioni aggiuntive durante il processo di generazione&lt;br /&gt;
&lt;br /&gt;
- Denoising strenght&lt;br /&gt;
&lt;br /&gt;
- Upscale by: L&#039;upscale di solito avviene dopo che l&#039;immagine è stata completamente generata. L&#039;immagine viene resa più grande senza perdere significativamente in qualità o dettaglio. Si esprime come un multiplier delle dimensioni dell&#039;immagine generata, da 1 a 4.&lt;br /&gt;
&lt;br /&gt;
* Width/Height: Dimensioni&lt;br /&gt;
&lt;br /&gt;
* Batch count: il numero di gruppi in cui i dati vengono divisi durante l&#039;elaborazione. Più batch count può significare una maggiore divisione dei dati durante il processo.&lt;br /&gt;
&lt;br /&gt;
* Batch size: quanti dati vengono elaborati contemporaneamente in ciascun gruppo. Un batch size più grande può accelerare il processo ma richiedere più memoria, mentre un batch size più piccolo può richiedere più tempo ma portare a risultati più precisi.&lt;br /&gt;
&lt;br /&gt;
* CFG Scale (Classifier Free Guidance Scale)&lt;br /&gt;
&lt;br /&gt;
* Seed: Un numero che inizializza il generatore di numeri casuali. Utilizzare lo stesso seed con gli stessi parametri di input produrrà sempre la stessa immagine. È utile per la riproducibilità o per fare piccoli aggiustamenti su un&#039;immagine esistente.&lt;br /&gt;
=Tecniche=&lt;br /&gt;
*[[TextualInversion]]&lt;br /&gt;
*[[Hypernetworks]]&lt;br /&gt;
*[[LoRA]]&lt;br /&gt;
&lt;br /&gt;
= Sperimentazioni =&lt;br /&gt;
Per effettuare un&#039;analisi bilanciata utilizzeremo gli stessi due metri di giudizio per valutare gli output:&lt;br /&gt;
&lt;br /&gt;
* Inception Score&lt;br /&gt;
* Visual Inspection by GPT4&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Denoising Strength =&lt;br /&gt;
Questo parametro si riferisce all&#039;intensità della &#039;&#039;&#039;riduzione del rumore&#039;&#039;&#039; applicata a un&#039;immagine. Il &amp;quot;rumore&amp;quot; è il termine usato per descrivere &#039;&#039;&#039;variazioni casuali e non desiderate&#039;&#039;&#039; nei livelli di luminosità o colore di un&#039;immagine, che possono renderla &#039;&#039;&#039;granulosa&#039;&#039;&#039; o &#039;&#039;&#039;offuscata&#039;&#039;&#039; e possono distorcere i dettagli.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
(Le sperimentazioni iniziano dopo il valore 0, poiché non si sta fornendo al modello l&#039;opportunità di &amp;quot;pulire&amp;quot; o trasformare il rumore in un&#039;immagine coerente basata sul prompt fornito)&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:Cooking_1.png|miniatura|200x200px|Denoising Strength = 0,1]]&lt;br /&gt;
|[[File:Cooking_2.png|miniatura|200x200px|Denoising Strength = 0,3]]&lt;br /&gt;
|[[File:Cooking_3.png|miniatura|200x200px|Denoising Strength = 0,7]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Impostando il Denoising Strenght a &amp;quot;0,1&amp;quot;, si nota un&#039;elevata quantità di rumore che rende indefiniti sia i dettagli che le sagome degli elementi a schermo. Aumentando de facto il valore del parametro si può osservare nettamente la differenza e l&#039;efficacia fra il valore intermedio (0,3) e quello iniziale, fino ad arrivare ad una qualità più che sufficiente impostando il parametro a &amp;quot;0,7&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
==Visual inspection by ChatGPT4==&lt;br /&gt;
Qui di seguito ci sarà una descrizione di ChatGPT4 sulla qualità delle immagini, in modo da comprendere se il modello riesca a individuare rumore e artefatti.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;&amp;lt;Le tre immagini mostrano una sequenza di azioni in una cucina, con un uomo che sembra impegnato nella preparazione di un piatto di carne. Nella prima immagine, il cuoco sta flambando la carne, creando un effetto visivo spettacolare con le fiamme che si alzano dalla padella. Nella seconda, appare concentrato nel girare o condire la carne, mentre nella terza è intento a cucinare, forse verificando la cottura o aggiungendo altri ingredienti.&lt;br /&gt;
Ogni immagine ha una qualità elevata, con dettagli nitidi e colori vivaci che catturano bene la scena della cucina. L&#039;illuminazione è ben gestita, evidenziando le azioni del cuoco e dando vita agli alimenti in preparazione. La composizione è dinamica e sembra che ci sia stata attenzione nel posizionare ogni elemento per creare una scena armoniosa che guida l&#039;occhio verso il soggetto principale senza distrazioni superflue.&lt;br /&gt;
Non si notano artefatti che suggeriscono una manipolazione digitale e le immagini trasmettono un senso di autenticità e professionalità. Ciò suggerisce che probabilmente sono state scattate durante una vera sessione di cucina e che fanno parte di una serie tematica ben pianificata. In sintesi, si tratta di una rappresentazione coerente e accattivante del processo culinario in azione.&amp;gt;&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dalla descrizione fornita, si nota come ChatGPT4 non riesca ad individuare le differenze sostanziali presenti fra le tre immagini, dimostrando comunque la capacità di saper descrivere il contesto in modo eccellente.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: CFG Scale =&lt;br /&gt;
Questo parametro controlla quanto fedelmente il processo di generazione delle immagini &#039;&#039;&#039;segue&#039;&#039;&#039; il prompt di testo fornito. Un valore più alto del CFG Scale significa che l&#039;immagine generata sarà più &#039;&#039;&#039;aderente&#039;&#039;&#039; al testo di input, ossia seguirà più strettamente le indicazioni date. In contrasto, un valore più basso dà al modello più libertà di &#039;&#039;&#039;inventare&#039;&#039;&#039; o di essere &#039;&#039;&#039;creativo&#039;&#039;&#039;, portando a risultati che possono &#039;&#039;&#039;deviare&#039;&#039;&#039; di più dal prompt originale.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:CookingCFG2.png|miniatura|200x200px|CFG = 1]]&lt;br /&gt;
|[[File:CookingCFG1.png|miniatura|200x200px|CFG = 3]]&lt;br /&gt;
|[[File:Cooking_3.png|miniatura|200x200px|CFG = 15]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Impostando il parametro al suo valore minimo si nota come il modello segua ben poco il prompt fornito. Viene presentato un ragazzo e non un uomo, situato in un posto che ricorda appena una cucina, mentre sta cucinando del cibo che ricorda vagamente la carne. Con un valore pari a &amp;quot;3&amp;quot;, il setting è già interamente riconoscibile. In questo caso sono solo le azioni che vengono rappresentate a schermo ad essere poco chiare, poiché si nota un uomo che ha messo una fetta di carne in un forno a legna. L&#039;ultima immagine mostra un contesto totalmente credibile: sia l&#039;ambiente che le azioni sono coerenti con il prompt fornito, benché gli unici difetti facilmente visibili sono gli oggetti che l&#039;uomo tiene in mano per cucinare, essendo poco definiti.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Share Attention in Batch =&lt;br /&gt;
Il parametro &amp;quot;&#039;&#039;&#039;Share attention in batch&#039;&#039;&#039;&amp;quot; è una funzionalità dove l&#039;attenzione del modello, ovvero la parte che il modello &amp;quot;considera&amp;quot; più importante durante la generazione dell&#039;immagine, viene &#039;&#039;&#039;condivisa&#039;&#039;&#039; o &#039;&#039;&#039;sincronizzata&#039;&#039;&#039; tra le immagini in un batch. Quando si generano &#039;&#039;&#039;più immagini contemporaneamente (un batch)&#039;&#039;&#039;, questo parametro fa in modo che tutte le immagini nel batch diano priorità a parti simili dell&#039;input, o che le caratteristiche stilistiche siano &#039;&#039;&#039;coerenti&#039;&#039;&#039; tra di loro. Per esempio, se si stanno generando immagini di volti e si vuole che l&#039;attenzione sia focalizzata sugli occhi per tutti i volti nel batch, attivare questa opzione potrebbe aiutare a garantire che tutti i volti generati abbiano occhi ben definiti e uno stile simile. Questo può essere particolarmente utile quando l&#039;obiettivo è creare una serie di immagini che devono essere visivamente coerenti l&#039;una con l&#039;altra.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:Cookingstyle1.png|miniatura|200x200px|SAIB = off]]&lt;br /&gt;
|[[File:Cookingstyle2.png|miniatura|200x200px|SAIB = on]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Hires steps =&lt;br /&gt;
Questo parametro si riferisce ai &#039;&#039;&#039;passaggi aggiuntivi&#039;&#039;&#039; di elaborazione che vengono eseguiti per &#039;&#039;&#039;rifinire&#039;&#039;&#039; l&#039;immagine dopo la sua creazione iniziale. Aumentare l&#039;Hire ssteps può migliorare la qualità dell&#039;immagine, ma &#039;&#039;&#039;rallenterà&#039;&#039;&#039; anche il processo di generazione.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on, &#039;&#039;&#039;the steak is being cooked on a pan&#039;&#039;&#039;&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:CookingHS1.png|miniatura|200x200px|Hire steps = 0]]&lt;br /&gt;
|[[File:CookingHS3.png|miniatura|200x200px|Hire steps = 100]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
In questa sperimentazione si notano poche differenze fra un&#039;immagine e l&#039;altra; fra l&#039;assenza del parametro e il suo valore massimo. L&#039;unico difetto individuabile si trova nella prima immagine dove l&#039;uomo sta cercando di cuocere la carne senza una padella.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: SelfAttentionGuidance Integrated =&lt;br /&gt;
Questa tecnica è progettata per rendere il processo di generazione delle immagini &#039;&#039;&#039;più semplice e veloce&#039;&#039;&#039; per l&#039;utente, migliorando allo stesso tempo la &#039;&#039;&#039;qualità&#039;&#039;&#039; delle immagini prodotte. La funzionalità integrata della &amp;quot;self attention guidance&amp;quot; può aiutare a creare immagini che appaiono &#039;&#039;&#039;più realistiche&#039;&#039;&#039; e con oggetti &#039;&#039;&#039;meglio definiti&#039;&#039;&#039; senza che l&#039;utente debba effettuare configurazioni complesse o &#039;&#039;&#039;passaggi supplementari&#039;&#039;&#039;.&lt;br /&gt;
Il termine &amp;quot;&#039;&#039;&#039;Scale&#039;&#039;&#039;&amp;quot; si riferisce all&#039;intensità con cui la guida basata sull&#039;auto-attenzione viene applicata durante il processo di generazione. Una &amp;quot;Scale&amp;quot; maggiore implica &#039;&#039;&#039;un&#039;adesione più forte al prompt testuale&#039;&#039;&#039; e può portare a immagini più &#039;&#039;&#039;dettagliate e coerenti con l&#039;input&#039;&#039;&#039;, anche se potrebbe ridurre la diversità delle immagini generate.&lt;br /&gt;
Il parametro &amp;quot;&#039;&#039;&#039;Blur Sigma&#039;&#039;&#039;&amp;quot;, invece, è associato al &#039;&#039;&#039;grado di sfocatura&#039;&#039;&#039; che viene applicato alle regioni selezionate di un&#039;immagine. Questo processo agisce dove le aree con maggiore auto-attenzione — ovvero quelle parti dell&#039;immagine che il modello riconosce come più importanti o informative — vengono &#039;&#039;&#039;sfocate&#039;&#039;&#039; leggermente. L&#039;idea è che &#039;&#039;&#039;enfatizzando&#039;&#039;&#039; il lavoro del modello su queste aree sfocate, il modello può generare risultati migliori, perfezionando le parti &#039;&#039;&#039;più significative&#039;&#039;&#039; dell&#039;immagine e &#039;&#039;&#039;riducendo&#039;&#039;&#039; potenzialmente il &#039;&#039;&#039;rumore&#039;&#039;&#039; o i &#039;&#039;&#039;dettagli superflui&#039;&#039;&#039; nelle regioni meno importanti.&lt;br /&gt;
I valori di default sono i seguenti: &amp;lt;&amp;lt;&#039;&#039;&#039;Scale = 0,5&#039;&#039;&#039;&amp;gt;&amp;gt; - &amp;lt;&amp;lt;&#039;&#039;&#039;Blur sigma = 2&#039;&#039;&#039;&amp;gt;&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on, &#039;&#039;&#039;the steak is being cooked on a pan&#039;&#039;&#039;&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:SAG_none_-_default.jpg|miniatura|200x200px|Tecnica omessa e valori default]]&lt;br /&gt;
|[[File:SAG_Scale.jpg|miniatura|200x200px|SAG Scale (da sinistra): -2; 1; 5]]&lt;br /&gt;
|[[File:SAG_BS.jpg|miniatura|200x200px|SAG BS (da sinistra): 0,1; 5; 10]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Nella prima immagine si osserva il confronto tra l&#039;immagine generata senza la tecnica del SAG e quella generata con quest&#039;ultima. Si evidenzia come l&#039;immagine generata con la tecnica con valori impostati di default sia di qualità inferiore alla prima, suggerendo che bisogna regolare i parametri di &amp;quot;scale&amp;quot; e di &amp;quot;blur sigma&amp;quot;. Per quanto riguarda le immagini generate variando solo il parametro di scale, si nota come si ottengano dei pessimi risultati impostando dei valori sia troppo bassi che troppo alti, e che quindi sia necessario lavorare nei valori intermedi (i risultati cambiano in base alla complessità del prompt). Relativamente al parametro di Blur sigma, si notano poche differenze fra le tre immagini, benché ci siano errori evidenti sul modo in cui l&#039;uomo tenga in mano degli oggetti difficilmente identificabili, soprattutto nei valori &amp;quot;0,1&amp;quot; e &amp;quot;10&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
=Altri componenti=&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:altrefunzioni.png|miniatura|500x500px|Tecniche]]&lt;br /&gt;
|}&lt;br /&gt;
==&#039;&#039;&#039;ControlNet&#039;&#039;&#039;== &lt;br /&gt;
Un modello di &#039;&#039;&#039;rete neurale&#039;&#039;&#039; progettato per controllare i modelli di Stable Diffusion, fornendo agli utenti un &#039;&#039;&#039;controllo dettagliato&#039;&#039;&#039; sugli output dei modelli di diffusione nelle attività di generazione di testo in immagine. ControlNet è una struttura di rete neurale che consente &#039;&#039;&#039;l&#039;aggiunta di condizioni aggiuntive&#039;&#039;&#039; per influenzare l&#039;output dei modelli di diffusione. Queste condizioni possono assumere molte forme, come [[Edge maps]], [[Depth maps]], e [[Semantic segmentations]]. L&#039;uso di ControlNet su Stable Diffusion offre numerosi vantaggi. Consente un controllo preciso sulla semantica e sulle caratteristiche del contenuto generato, consentendo la generazione di output più &#039;&#039;&#039;accurati&#039;&#039;&#039; e &#039;&#039;&#039;personalizzati&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;DynamicThresholding (CFG-Fix)&#039;&#039;&#039;==  &lt;br /&gt;
è un &#039;&#039;&#039;filtro&#039;&#039;&#039; per migliorare le immagini. Aiuta a risolvere &#039;&#039;&#039;problemi di colore&#039;&#039;&#039; quando si usano &#039;&#039;&#039;impostazioni più alte&#039;&#039;&#039;. Queste ultime, si riferiscono a valori maggiori o livelli superiori, significa utilizzare valori più grandi per &#039;&#039;&#039;migliorare&#039;&#039;&#039; l’immagine. Ad esempio, se un’immagine è leggermente sbiadita e la si vuole rendere più nitida, è possibile aumentare determinati parametri. Tuttavia, a volte, quando si usano valori troppo alti, potrebbero verificarsi problemi di colore. Ecco dove entra in gioco CFG-Fix: risolve questi problemi di colore quando si utilizzano impostazioni elevate.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;FreeU&#039;&#039;&#039;== &lt;br /&gt;
Un componente aggiuntivo di Stable Diffusion che migliora la qualità dell&#039;immagine modificando il &#039;&#039;&#039;denoiser&#039;&#039;&#039; del modello. Il miglioramento avviene senza costi: nessun addestramento, nessun parametro aggiuntivo introdotto e nessun aumento della memoria o del tempo di campionamento.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A 25 year old mage, dress, full body, magic, lightning, rim light, moon, night&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra e utilizzo FreeU.&lt;br /&gt;
&lt;br /&gt;
[[File:maga.png|300px]] [[File:magaFreeU.png|300px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;HyperTile&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;metodo&#039;&#039;&#039; che ottimizza il livello di &#039;&#039;&#039;auto-attenzione&#039;&#039;&#039; all’interno dei modelli Stable-Diffusion. Questo porta a una &#039;&#039;&#039;riduzione del tempo di calcolo&#039;&#039;&#039; che varia da 1 a 4 volte, a seconda della &#039;&#039;&#039;risoluzione iniziale&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A man eating pasta&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra e utilizzo di Hypertile.&lt;br /&gt;
&lt;br /&gt;
[[File:Uomopasta1.png|400px]] [[File:Uomopasta2.png|400px]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;Kohya HRFix&#039;&#039;&#039;== &lt;br /&gt;
è un’&#039;&#039;&#039;estensione&#039;&#039;&#039; utilizzata nei modelli Stable-Diffusion per migliorare la risoluzione delle immagini generate. Questa estensione è stata sviluppata da Kohya e ha lo scopo di &#039;&#039;&#039;limitare i problemi di clonazione/crollo&#039;&#039;&#039; nelle immagini ad alta risoluzione. Tuttavia, l’uso di Kohya HRFix può ridurre la varietà delle immagini generate, rendendole più identiche tra loro. Le impostazioni ottimali per Kohya HRFix possono variare a seconda delle esigenze specifiche dell’utente.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A potrait of a white cat, cozy house&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra e utilizzo Kohya HRFix.&lt;br /&gt;
&lt;br /&gt;
[[File:Gattobianco1.png|300px]] [[File:Gattokoya.png|500px]]&lt;br /&gt;
&lt;br /&gt;
Possiamo notare che nonostante presenti risultati migliori per quanto riguarda la risoluzione e dei dettagli, Kohya ha anche il contro di alterare leggermente l&#039;interpretazione del prompt il che, per artisti dedicati e che curano ogni dettaglio della generazione, può essere un grosso dealbreaker.&lt;br /&gt;
[[File:Kohya.png|centro|miniatura|923x923px|Confronto di tempistiche e risultati con e senza Kohya XRFix. fonte: https://www.reddit.com/r/StableDiffusion/comments/17z951a/kohyas_deepshrink_highres_fix_is_amazing_produces/]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;LatentModifier&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;componente&#039;&#039;&#039; che &#039;&#039;&#039;modifica i valori latenti&#039;&#039;&#039; durante il &#039;&#039;&#039;processo di diffusione&#039;&#039;&#039; in un modello di generazione di immagini. Queste modifiche possono influenzare vari aspetti dell’immagine finale, come la &#039;&#039;&#039;nitidezza&#039;&#039;&#039;, il &#039;&#039;&#039;contrasto&#039;&#039;&#039; e il &#039;&#039;&#039;rumore&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A potrait of a white cat, cozy house&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra e utilizzo LatentModifier.&lt;br /&gt;
&lt;br /&gt;
[[File:Gattobianco1.png|300px]] [[File:Latentgatto.png|300px]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;MultiDiffusion&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;framework&#039;&#039;&#039; unificato che consente la generazione di immagini &#039;&#039;&#039;versatili&#039;&#039;&#039; e &#039;&#039;&#039;controllabili&#039;&#039;&#039;, utilizzando un modello di diffusione text-to-image pre-addestrato. Al centro dell’approccio c’è un nuovo processo di generazione, basato su un compito di &#039;&#039;&#039;ottimizzazione&#039;&#039;&#039; che lega insieme &#039;&#039;&#039;più processi&#039;&#039;&#039; di generazione di diffusione con un &#039;&#039;&#039;insieme condiviso di parametri o vincoli&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;Never OOM&#039;&#039;&#039;== &lt;br /&gt;
è un’&#039;&#039;&#039;opzione&#039;&#039;&#039; che permette di scaricare sempre i modelli dalla &#039;&#039;&#039;VRAM&#039;&#039;&#039;. Questo può essere utile se si utilizzano &#039;&#039;&#039;più software insieme&#039;&#039;&#039; e si desidera che Stable Diffusion utilizzi meno VRAM e ne dia &#039;&#039;&#039;una parte ad altri software&#039;&#039;&#039;, o quando si utilizzano vecchie estensioni che competono con la VRAM di Stable Diffusion. [[Category:strumento]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;Script&#039;&#039;&#039;==&lt;br /&gt;
Questa funzione è utilizzata per implementare &#039;&#039;&#039;script personalizzati&#039;&#039;&#039; che possono modificare il &#039;&#039;&#039;comportamento&#039;&#039;&#039; del processo di generazione di immagini.&lt;br /&gt;
*&#039;&#039;&#039;None&#039;&#039;&#039;: Questa è l’opzione predefinita che significa che non viene eseguito alcuno script.&lt;br /&gt;
*&#039;&#039;&#039;Prompt matrix&#039;&#039;&#039;: permette di testare e confrontare le modifiche che i prompt apportano alle immagini generate. Si possono strutturare i prompt in modo che ogni immagine nella matrice abbia un prompt che inizia con una frase comune.Per esempio, una immagine avrà il prompt “una ciotola di frutta, mele”, un’altra avrà “una ciotola di frutta, mele, pere” e così via.&lt;br /&gt;
*&#039;&#039;&#039;Prompts from file or textbox&#039;&#039;&#039;: permette di caricare i prompt da un file o da un textbox. Si può creare un prompt a piacimento, creare un numero x di variazioni su di esso, copiare quel file di testo, e ripetere fino a quando non hai centinaia di mini file di testo.&lt;br /&gt;
*&#039;&#039;&#039;X/Y/Z plot&#039;&#039;&#039;: permette di eseguire test sui propri prompt e impostazioni per vedere i risultati, senza impegnarsi in una generazione di immagini completa. Utilizzando un grafico, si possono confrontare i risultati per vedere quale combinazione di impostazioni funziona meglio.&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Txt2img_(Stable_Diffusion)&amp;diff=1526</id>
		<title>Txt2img (Stable Diffusion)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Txt2img_(Stable_Diffusion)&amp;diff=1526"/>
		<updated>2024-03-22T12:12:46Z</updated>

		<summary type="html">&lt;p&gt;Stefano: /* Altri componenti */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Txt2img è un tool di [[Stable Diffusion]] che, come intuibile, genera un&#039;immagine .png basata su un prompt testuale. Il suo ultimo aggiornamento risale al 28 Ottobre 2022.&lt;br /&gt;
&lt;br /&gt;
I parametri di Txt2img non verranno descritti con massimo dettaglio dal momento che la finalità di questa Wiki entry è di fornire delle linee guida comprovate da sperimentazione diretta.&lt;br /&gt;
&lt;br /&gt;
* Il primo obiettivo è ricondurre con praticità il livello di performance riscontrato nel modello alle relative combinazioni di parametri.&lt;br /&gt;
&lt;br /&gt;
* Il secondo obiettivo è creare collegamenti tra ciascun parametro e la corrispondente sezione dell&#039;architettura.&lt;br /&gt;
&lt;br /&gt;
= Link di approfondimento =&lt;br /&gt;
Nel caso si voglia approfondire i setting si può visitare il github relativo alla UI: [https://github.com/AUTOMATIC1111/stable-diffusion-webui]&lt;br /&gt;
&lt;br /&gt;
Nel caso si voglia approfondire l&#039;architettura generale si può visitare il repository: [https://github.com/Stability-AI/stablediffusion]&lt;br /&gt;
&lt;br /&gt;
= Overview dell&#039;interfaccia =&lt;br /&gt;
[[File:Overview_diffusion.png|700x700px]]&lt;br /&gt;
&lt;br /&gt;
* [[Sampling method (Stable Diffusion)|Sampling method]]&lt;br /&gt;
&lt;br /&gt;
* Sampling steps:&lt;br /&gt;
&lt;br /&gt;
-Tra l&#039;1 e i 15 step: l&#039;immagine è relativamente sfocata.&lt;br /&gt;
&lt;br /&gt;
-Tra i 15 e i 25 step: L&#039;immagine è abbastanza chiara e di buona qualità.&lt;br /&gt;
&lt;br /&gt;
-Tra i 25 e i 45: La qualità dell&#039;immagine è molto alta e comprende la texture.&lt;br /&gt;
&lt;br /&gt;
-Dai 45 in poi: La loss function si stabilizza e si osserva una variazione minima nella risoluzione.&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:Sampling step 5.png|miniatura|5 step]]&lt;br /&gt;
![[File:10 step.png|miniatura|10 step]]&lt;br /&gt;
![[File:15 step.png|miniatura|15 step]]&lt;br /&gt;
|}&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:25 step.png|miniatura|25 step]]&lt;br /&gt;
![[File:40 step.png|miniatura|40 step]]&lt;br /&gt;
![[File:60 step.png|miniatura|60 step]]&lt;br /&gt;
|}&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:1 step.png|miniatura|1 step]]&lt;br /&gt;
![[File:150 step.png|miniatura|150 step]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
====== Upscaler: ======&lt;br /&gt;
L&#039;upscaling è il processo di aumentare la risoluzione di un&#039;immagine, cioè di ingrandirla, mantenendo al contempo la qualità visiva il più alta possibile e può essere ottenuto mediante algoritmi di interpolazione e tecniche avanzate di elaborazione delle immagini, che aggiungono dettagli artificiali per migliorare l&#039;aspetto dell&#039;immagine.&lt;br /&gt;
&lt;br /&gt;
- Hires Steps: migliorano la qualità dell&#039;immagine attraverso iterazioni aggiuntive durante il processo di generazione&lt;br /&gt;
&lt;br /&gt;
- Denoising strenght&lt;br /&gt;
&lt;br /&gt;
- Upscale by: L&#039;upscale di solito avviene dopo che l&#039;immagine è stata completamente generata. L&#039;immagine viene resa più grande senza perdere significativamente in qualità o dettaglio. Si esprime come un multiplier delle dimensioni dell&#039;immagine generata, da 1 a 4.&lt;br /&gt;
&lt;br /&gt;
* Width/Height: Dimensioni&lt;br /&gt;
&lt;br /&gt;
* Batch count: il numero di gruppi in cui i dati vengono divisi durante l&#039;elaborazione. Più batch count può significare una maggiore divisione dei dati durante il processo.&lt;br /&gt;
&lt;br /&gt;
* Batch size: quanti dati vengono elaborati contemporaneamente in ciascun gruppo. Un batch size più grande può accelerare il processo ma richiedere più memoria, mentre un batch size più piccolo può richiedere più tempo ma portare a risultati più precisi.&lt;br /&gt;
&lt;br /&gt;
* CFG Scale (Classifier Free Guidance Scale)&lt;br /&gt;
&lt;br /&gt;
* Seed: Un numero che inizializza il generatore di numeri casuali. Utilizzare lo stesso seed con gli stessi parametri di input produrrà sempre la stessa immagine. È utile per la riproducibilità o per fare piccoli aggiustamenti su un&#039;immagine esistente.&lt;br /&gt;
=Tecniche=&lt;br /&gt;
*[[TextualInversion]]&lt;br /&gt;
*[[Hypernetworks]]&lt;br /&gt;
*[[LoRA]]&lt;br /&gt;
&lt;br /&gt;
= Sperimentazioni =&lt;br /&gt;
Per effettuare un&#039;analisi bilanciata utilizzeremo gli stessi due metri di giudizio per valutare gli output:&lt;br /&gt;
&lt;br /&gt;
* Inception Score&lt;br /&gt;
* Visual Inspection by GPT4&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Denoising Strength =&lt;br /&gt;
Questo parametro si riferisce all&#039;intensità della &#039;&#039;&#039;riduzione del rumore&#039;&#039;&#039; applicata a un&#039;immagine. Il &amp;quot;rumore&amp;quot; è il termine usato per descrivere &#039;&#039;&#039;variazioni casuali e non desiderate&#039;&#039;&#039; nei livelli di luminosità o colore di un&#039;immagine, che possono renderla &#039;&#039;&#039;granulosa&#039;&#039;&#039; o &#039;&#039;&#039;offuscata&#039;&#039;&#039; e possono distorcere i dettagli.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
(Le sperimentazioni iniziano dopo il valore 0, poiché non si sta fornendo al modello l&#039;opportunità di &amp;quot;pulire&amp;quot; o trasformare il rumore in un&#039;immagine coerente basata sul prompt fornito)&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:Cooking_1.png|miniatura|200x200px|Denoising Strength = 0,1]]&lt;br /&gt;
|[[File:Cooking_2.png|miniatura|200x200px|Denoising Strength = 0,3]]&lt;br /&gt;
|[[File:Cooking_3.png|miniatura|200x200px|Denoising Strength = 0,7]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Impostando il Denoising Strenght a &amp;quot;0,1&amp;quot;, si nota un&#039;elevata quantità di rumore che rende indefiniti sia i dettagli che le sagome degli elementi a schermo. Aumentando de facto il valore del parametro si può osservare nettamente la differenza e l&#039;efficacia fra il valore intermedio (0,3) e quello iniziale, fino ad arrivare ad una qualità più che sufficiente impostando il parametro a &amp;quot;0,7&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
==Visual inspection by ChatGPT4==&lt;br /&gt;
Qui di seguito ci sarà una descrizione di ChatGPT4 sulla qualità delle immagini, in modo da comprendere se il modello riesca a individuare rumore e artefatti.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;&amp;lt;Le tre immagini mostrano una sequenza di azioni in una cucina, con un uomo che sembra impegnato nella preparazione di un piatto di carne. Nella prima immagine, il cuoco sta flambando la carne, creando un effetto visivo spettacolare con le fiamme che si alzano dalla padella. Nella seconda, appare concentrato nel girare o condire la carne, mentre nella terza è intento a cucinare, forse verificando la cottura o aggiungendo altri ingredienti.&lt;br /&gt;
Ogni immagine ha una qualità elevata, con dettagli nitidi e colori vivaci che catturano bene la scena della cucina. L&#039;illuminazione è ben gestita, evidenziando le azioni del cuoco e dando vita agli alimenti in preparazione. La composizione è dinamica e sembra che ci sia stata attenzione nel posizionare ogni elemento per creare una scena armoniosa che guida l&#039;occhio verso il soggetto principale senza distrazioni superflue.&lt;br /&gt;
Non si notano artefatti che suggeriscono una manipolazione digitale e le immagini trasmettono un senso di autenticità e professionalità. Ciò suggerisce che probabilmente sono state scattate durante una vera sessione di cucina e che fanno parte di una serie tematica ben pianificata. In sintesi, si tratta di una rappresentazione coerente e accattivante del processo culinario in azione.&amp;gt;&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dalla descrizione fornita, si nota come ChatGPT4 non riesca ad individuare le differenze sostanziali presenti fra le tre immagini, dimostrando comunque la capacità di saper descrivere il contesto in modo eccellente.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: CFG Scale =&lt;br /&gt;
Questo parametro controlla quanto fedelmente il processo di generazione delle immagini &#039;&#039;&#039;segue&#039;&#039;&#039; il prompt di testo fornito. Un valore più alto del CFG Scale significa che l&#039;immagine generata sarà più &#039;&#039;&#039;aderente&#039;&#039;&#039; al testo di input, ossia seguirà più strettamente le indicazioni date. In contrasto, un valore più basso dà al modello più libertà di &#039;&#039;&#039;inventare&#039;&#039;&#039; o di essere &#039;&#039;&#039;creativo&#039;&#039;&#039;, portando a risultati che possono &#039;&#039;&#039;deviare&#039;&#039;&#039; di più dal prompt originale.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:CookingCFG2.png|miniatura|200x200px|CFG = 1]]&lt;br /&gt;
|[[File:CookingCFG1.png|miniatura|200x200px|CFG = 3]]&lt;br /&gt;
|[[File:Cooking_3.png|miniatura|200x200px|CFG = 15]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Impostando il parametro al suo valore minimo si nota come il modello segua ben poco il prompt fornito. Viene presentato un ragazzo e non un uomo, situato in un posto che ricorda appena una cucina, mentre sta cucinando del cibo che ricorda vagamente la carne. Con un valore pari a &amp;quot;3&amp;quot;, il setting è già interamente riconoscibile. In questo caso sono solo le azioni che vengono rappresentate a schermo ad essere poco chiare, poiché si nota un uomo che ha messo una fetta di carne in un forno a legna. L&#039;ultima immagine mostra un contesto totalmente credibile: sia l&#039;ambiente che le azioni sono coerenti con il prompt fornito, benché gli unici difetti facilmente visibili sono gli oggetti che l&#039;uomo tiene in mano per cucinare, essendo poco definiti.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Share Attention in Batch =&lt;br /&gt;
Il parametro &amp;quot;&#039;&#039;&#039;Share attention in batch&#039;&#039;&#039;&amp;quot; è una funzionalità dove l&#039;attenzione del modello, ovvero la parte che il modello &amp;quot;considera&amp;quot; più importante durante la generazione dell&#039;immagine, viene &#039;&#039;&#039;condivisa&#039;&#039;&#039; o &#039;&#039;&#039;sincronizzata&#039;&#039;&#039; tra le immagini in un batch. Quando si generano &#039;&#039;&#039;più immagini contemporaneamente (un batch)&#039;&#039;&#039;, questo parametro fa in modo che tutte le immagini nel batch diano priorità a parti simili dell&#039;input, o che le caratteristiche stilistiche siano &#039;&#039;&#039;coerenti&#039;&#039;&#039; tra di loro. Per esempio, se si stanno generando immagini di volti e si vuole che l&#039;attenzione sia focalizzata sugli occhi per tutti i volti nel batch, attivare questa opzione potrebbe aiutare a garantire che tutti i volti generati abbiano occhi ben definiti e uno stile simile. Questo può essere particolarmente utile quando l&#039;obiettivo è creare una serie di immagini che devono essere visivamente coerenti l&#039;una con l&#039;altra.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:Cookingstyle1.png|miniatura|200x200px|SAIB = off]]&lt;br /&gt;
|[[File:Cookingstyle2.png|miniatura|200x200px|SAIB = on]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Hires steps =&lt;br /&gt;
Questo parametro si riferisce ai &#039;&#039;&#039;passaggi aggiuntivi&#039;&#039;&#039; di elaborazione che vengono eseguiti per &#039;&#039;&#039;rifinire&#039;&#039;&#039; l&#039;immagine dopo la sua creazione iniziale. Aumentare l&#039;Hire ssteps può migliorare la qualità dell&#039;immagine, ma &#039;&#039;&#039;rallenterà&#039;&#039;&#039; anche il processo di generazione.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on, &#039;&#039;&#039;the steak is being cooked on a pan&#039;&#039;&#039;&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:CookingHS1.png|miniatura|200x200px|Hire steps = 0]]&lt;br /&gt;
|[[File:CookingHS3.png|miniatura|200x200px|Hire steps = 100]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
In questa sperimentazione si notano poche differenze fra un&#039;immagine e l&#039;altra; fra l&#039;assenza del parametro e il suo valore massimo. L&#039;unico difetto individuabile si trova nella prima immagine dove l&#039;uomo sta cercando di cuocere la carne senza una padella.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: SelfAttentionGuidance Integrated =&lt;br /&gt;
Questa tecnica è progettata per rendere il processo di generazione delle immagini &#039;&#039;&#039;più semplice e veloce&#039;&#039;&#039; per l&#039;utente, migliorando allo stesso tempo la &#039;&#039;&#039;qualità&#039;&#039;&#039; delle immagini prodotte. La funzionalità integrata della &amp;quot;self attention guidance&amp;quot; può aiutare a creare immagini che appaiono &#039;&#039;&#039;più realistiche&#039;&#039;&#039; e con oggetti &#039;&#039;&#039;meglio definiti&#039;&#039;&#039; senza che l&#039;utente debba effettuare configurazioni complesse o &#039;&#039;&#039;passaggi supplementari&#039;&#039;&#039;.&lt;br /&gt;
Il termine &amp;quot;&#039;&#039;&#039;Scale&#039;&#039;&#039;&amp;quot; si riferisce all&#039;intensità con cui la guida basata sull&#039;auto-attenzione viene applicata durante il processo di generazione. Una &amp;quot;Scale&amp;quot; maggiore implica &#039;&#039;&#039;un&#039;adesione più forte al prompt testuale&#039;&#039;&#039; e può portare a immagini più &#039;&#039;&#039;dettagliate e coerenti con l&#039;input&#039;&#039;&#039;, anche se potrebbe ridurre la diversità delle immagini generate.&lt;br /&gt;
Il parametro &amp;quot;&#039;&#039;&#039;Blur Sigma&#039;&#039;&#039;&amp;quot;, invece, è associato al &#039;&#039;&#039;grado di sfocatura&#039;&#039;&#039; che viene applicato alle regioni selezionate di un&#039;immagine. Questo processo agisce dove le aree con maggiore auto-attenzione — ovvero quelle parti dell&#039;immagine che il modello riconosce come più importanti o informative — vengono &#039;&#039;&#039;sfocate&#039;&#039;&#039; leggermente. L&#039;idea è che &#039;&#039;&#039;enfatizzando&#039;&#039;&#039; il lavoro del modello su queste aree sfocate, il modello può generare risultati migliori, perfezionando le parti &#039;&#039;&#039;più significative&#039;&#039;&#039; dell&#039;immagine e &#039;&#039;&#039;riducendo&#039;&#039;&#039; potenzialmente il &#039;&#039;&#039;rumore&#039;&#039;&#039; o i &#039;&#039;&#039;dettagli superflui&#039;&#039;&#039; nelle regioni meno importanti.&lt;br /&gt;
I valori di default sono i seguenti: &amp;lt;&amp;lt;&#039;&#039;&#039;Scale = 0,5&#039;&#039;&#039;&amp;gt;&amp;gt; - &amp;lt;&amp;lt;&#039;&#039;&#039;Blur sigma = 2&#039;&#039;&#039;&amp;gt;&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on, &#039;&#039;&#039;the steak is being cooked on a pan&#039;&#039;&#039;&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:SAG_none_-_default.jpg|miniatura|200x200px|Tecnica omessa e valori default]]&lt;br /&gt;
|[[File:SAG_Scale.jpg|miniatura|200x200px|SAG Scale (da sinistra): -2; 1; 5]]&lt;br /&gt;
|[[File:SAG_BS.jpg|miniatura|200x200px|SAG BS (da sinistra): 0,1; 5; 10]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Nella prima immagine si osserva il confronto tra l&#039;immagine generata senza la tecnica del SAG e quella generata con quest&#039;ultima. Si evidenzia come l&#039;immagine generata con la tecnica con valori impostati di default sia di qualità inferiore alla prima, suggerendo che bisogna regolare i parametri di &amp;quot;scale&amp;quot; e di &amp;quot;blur sigma&amp;quot;. Per quanto riguarda le immagini generate variando solo il parametro di scale, si nota come si ottengano dei pessimi risultati impostando dei valori sia troppo bassi che troppo alti, e che quindi sia necessario lavorare nei valori intermedi (i risultati cambiano in base alla complessità del prompt). Relativamente al parametro di Blur sigma, si notano poche differenze fra le tre immagini, benché ci siano errori evidenti sul modo in cui l&#039;uomo tenga in mano degli oggetti difficilmente identificabili, soprattutto nei valori &amp;quot;0,1&amp;quot; e &amp;quot;10&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
=Altri componenti=&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:altrefunzioni.png|miniatura|500x500px|Tecniche]]&lt;br /&gt;
|}&lt;br /&gt;
==&#039;&#039;&#039;ControlNet&#039;&#039;&#039;== &lt;br /&gt;
Un modello di &#039;&#039;&#039;rete neurale&#039;&#039;&#039; progettato per controllare i modelli di Stable Diffusion, fornendo agli utenti un &#039;&#039;&#039;controllo dettagliato&#039;&#039;&#039; sugli output dei modelli di diffusione nelle attività di generazione di testo in immagine. ControlNet è una struttura di rete neurale che consente &#039;&#039;&#039;l&#039;aggiunta di condizioni aggiuntive&#039;&#039;&#039; per influenzare l&#039;output dei modelli di diffusione. Queste condizioni possono assumere molte forme, come [[Edge maps]], [[Depth maps]], e [[Semantic segmentations]]. L&#039;uso di ControlNet su Stable Diffusion offre numerosi vantaggi. Consente un controllo preciso sulla semantica e sulle caratteristiche del contenuto generato, consentendo la generazione di output più &#039;&#039;&#039;accurati&#039;&#039;&#039; e &#039;&#039;&#039;personalizzati&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;DynamicThresholding (CFG-Fix)&#039;&#039;&#039;==  &lt;br /&gt;
è un &#039;&#039;&#039;filtro&#039;&#039;&#039; per migliorare le immagini. Aiuta a risolvere &#039;&#039;&#039;problemi di colore&#039;&#039;&#039; quando si usano &#039;&#039;&#039;impostazioni più alte&#039;&#039;&#039;. Queste ultime, si riferiscono a valori maggiori o livelli superiori, significa utilizzare valori più grandi per &#039;&#039;&#039;migliorare&#039;&#039;&#039; l’immagine. Ad esempio, se un’immagine è leggermente sbiadita e la si vuole rendere più nitida, è possibile aumentare determinati parametri. Tuttavia, a volte, quando si usano valori troppo alti, potrebbero verificarsi problemi di colore. Ecco dove entra in gioco CFG-Fix: risolve questi problemi di colore quando si utilizzano impostazioni elevate.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;FreeU&#039;&#039;&#039;== &lt;br /&gt;
Un componente aggiuntivo di Stable Diffusion che migliora la qualità dell&#039;immagine modificando il &#039;&#039;&#039;denoiser&#039;&#039;&#039; del modello. Il miglioramento avviene senza costi: nessun addestramento, nessun parametro aggiuntivo introdotto e nessun aumento della memoria o del tempo di campionamento.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A 25 year old mage, dress, full body, magic, lightning, rim light, moon, night&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra e utilizzo FreeU.&lt;br /&gt;
&lt;br /&gt;
[[File:maga.png|300px]] [[File:magaFreeU.png|300px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;HyperTile&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;metodo&#039;&#039;&#039; che ottimizza il livello di &#039;&#039;&#039;auto-attenzione&#039;&#039;&#039; all’interno dei modelli Stable-Diffusion. Questo porta a una &#039;&#039;&#039;riduzione del tempo di calcolo&#039;&#039;&#039; che varia da 1 a 4 volte, a seconda della &#039;&#039;&#039;risoluzione iniziale&#039;&#039;&#039;.&lt;br /&gt;
==&#039;&#039;&#039;Kohya HRFix&#039;&#039;&#039;== &lt;br /&gt;
è un’&#039;&#039;&#039;estensione&#039;&#039;&#039; utilizzata nei modelli Stable-Diffusion per migliorare la risoluzione delle immagini generate. Questa estensione è stata sviluppata da Kohya e ha lo scopo di &#039;&#039;&#039;limitare i problemi di clonazione/crollo&#039;&#039;&#039; nelle immagini ad alta risoluzione. Tuttavia, l’uso di Kohya HRFix può ridurre la varietà delle immagini generate, rendendole più identiche tra loro. Le impostazioni ottimali per Kohya HRFix possono variare a seconda delle esigenze specifiche dell’utente.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A potrait of a white cat, cozy house&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra e utilizzo Kohya HRFix.&lt;br /&gt;
&lt;br /&gt;
[[File:Gattobianco1.png|300px]] [[File:Gattokoya.png|500px]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;LatentModifier&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;componente&#039;&#039;&#039; che &#039;&#039;&#039;modifica i valori latenti&#039;&#039;&#039; durante il &#039;&#039;&#039;processo di diffusione&#039;&#039;&#039; in un modello di generazione di immagini. Queste modifiche possono influenzare vari aspetti dell’immagine finale, come la &#039;&#039;&#039;nitidezza&#039;&#039;&#039;, il &#039;&#039;&#039;contrasto&#039;&#039;&#039; e il &#039;&#039;&#039;rumore&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A potrait of a white cat, cozy house&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra e utilizzo LatentModifier.&lt;br /&gt;
&lt;br /&gt;
[[File:Gattobianco1.png|300px]] [[File:Latentgatto.png|300px]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;MultiDiffusion&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;framework&#039;&#039;&#039; unificato che consente la generazione di immagini &#039;&#039;&#039;versatili&#039;&#039;&#039; e &#039;&#039;&#039;controllabili&#039;&#039;&#039;, utilizzando un modello di diffusione text-to-image pre-addestrato. Al centro dell’approccio c’è un nuovo processo di generazione, basato su un compito di &#039;&#039;&#039;ottimizzazione&#039;&#039;&#039; che lega insieme &#039;&#039;&#039;più processi&#039;&#039;&#039; di generazione di diffusione con un &#039;&#039;&#039;insieme condiviso di parametri o vincoli&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;Never OOM&#039;&#039;&#039;== &lt;br /&gt;
è un’&#039;&#039;&#039;opzione&#039;&#039;&#039; che permette di scaricare sempre i modelli dalla &#039;&#039;&#039;VRAM&#039;&#039;&#039;. Questo può essere utile se si utilizzano &#039;&#039;&#039;più software insieme&#039;&#039;&#039; e si desidera che Stable Diffusion utilizzi meno VRAM e ne dia &#039;&#039;&#039;una parte ad altri software&#039;&#039;&#039;, o quando si utilizzano vecchie estensioni che competono con la VRAM di Stable Diffusion. [[Category:strumento]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;Script&#039;&#039;&#039;==&lt;br /&gt;
Questa funzione è utilizzata per implementare &#039;&#039;&#039;script personalizzati&#039;&#039;&#039; che possono modificare il &#039;&#039;&#039;comportamento&#039;&#039;&#039; del processo di generazione di immagini.&lt;br /&gt;
*&#039;&#039;&#039;None&#039;&#039;&#039;: Questa è l’opzione predefinita che significa che non viene eseguito alcuno script.&lt;br /&gt;
*&#039;&#039;&#039;Prompt matrix&#039;&#039;&#039;: permette di testare e confrontare le modifiche che i prompt apportano alle immagini generate. Si possono strutturare i prompt in modo che ogni immagine nella matrice abbia un prompt che inizia con una frase comune.Per esempio, una immagine avrà il prompt “una ciotola di frutta, mele”, un’altra avrà “una ciotola di frutta, mele, pere” e così via.&lt;br /&gt;
*&#039;&#039;&#039;Prompts from file or textbox&#039;&#039;&#039;: permette di caricare i prompt da un file o da un textbox. Si può creare un prompt a piacimento, creare un numero x di variazioni su di esso, copiare quel file di testo, e ripetere fino a quando non hai centinaia di mini file di testo.&lt;br /&gt;
*&#039;&#039;&#039;X/Y/Z plot&#039;&#039;&#039;: permette di eseguire test sui propri prompt e impostazioni per vedere i risultati, senza impegnarsi in una generazione di immagini completa. Utilizzando un grafico, si possono confrontare i risultati per vedere quale combinazione di impostazioni funziona meglio.&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=File:Gattokoya.png&amp;diff=1525</id>
		<title>File:Gattokoya.png</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=File:Gattokoya.png&amp;diff=1525"/>
		<updated>2024-03-22T12:09:44Z</updated>

		<summary type="html">&lt;p&gt;Stefano: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Txt2img_(Stable_Diffusion)&amp;diff=1524</id>
		<title>Txt2img (Stable Diffusion)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Txt2img_(Stable_Diffusion)&amp;diff=1524"/>
		<updated>2024-03-22T12:08:22Z</updated>

		<summary type="html">&lt;p&gt;Stefano: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Txt2img è un tool di [[Stable Diffusion]] che, come intuibile, genera un&#039;immagine .png basata su un prompt testuale. Il suo ultimo aggiornamento risale al 28 Ottobre 2022.&lt;br /&gt;
&lt;br /&gt;
I parametri di Txt2img non verranno descritti con massimo dettaglio dal momento che la finalità di questa Wiki entry è di fornire delle linee guida comprovate da sperimentazione diretta.&lt;br /&gt;
&lt;br /&gt;
* Il primo obiettivo è ricondurre con praticità il livello di performance riscontrato nel modello alle relative combinazioni di parametri.&lt;br /&gt;
&lt;br /&gt;
* Il secondo obiettivo è creare collegamenti tra ciascun parametro e la corrispondente sezione dell&#039;architettura.&lt;br /&gt;
&lt;br /&gt;
= Link di approfondimento =&lt;br /&gt;
Nel caso si voglia approfondire i setting si può visitare il github relativo alla UI: [https://github.com/AUTOMATIC1111/stable-diffusion-webui]&lt;br /&gt;
&lt;br /&gt;
Nel caso si voglia approfondire l&#039;architettura generale si può visitare il repository: [https://github.com/Stability-AI/stablediffusion]&lt;br /&gt;
&lt;br /&gt;
= Overview dell&#039;interfaccia =&lt;br /&gt;
[[File:Overview_diffusion.png|700x700px]]&lt;br /&gt;
&lt;br /&gt;
* [[Sampling method (Stable Diffusion)|Sampling method]]&lt;br /&gt;
&lt;br /&gt;
* Sampling steps:&lt;br /&gt;
&lt;br /&gt;
-Tra l&#039;1 e i 15 step: l&#039;immagine è relativamente sfocata.&lt;br /&gt;
&lt;br /&gt;
-Tra i 15 e i 25 step: L&#039;immagine è abbastanza chiara e di buona qualità.&lt;br /&gt;
&lt;br /&gt;
-Tra i 25 e i 45: La qualità dell&#039;immagine è molto alta e comprende la texture.&lt;br /&gt;
&lt;br /&gt;
-Dai 45 in poi: La loss function si stabilizza e si osserva una variazione minima nella risoluzione.&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:Sampling step 5.png|miniatura|5 step]]&lt;br /&gt;
![[File:10 step.png|miniatura|10 step]]&lt;br /&gt;
![[File:15 step.png|miniatura|15 step]]&lt;br /&gt;
|}&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:25 step.png|miniatura|25 step]]&lt;br /&gt;
![[File:40 step.png|miniatura|40 step]]&lt;br /&gt;
![[File:60 step.png|miniatura|60 step]]&lt;br /&gt;
|}&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:1 step.png|miniatura|1 step]]&lt;br /&gt;
![[File:150 step.png|miniatura|150 step]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
====== Upscaler: ======&lt;br /&gt;
L&#039;upscaling è il processo di aumentare la risoluzione di un&#039;immagine, cioè di ingrandirla, mantenendo al contempo la qualità visiva il più alta possibile e può essere ottenuto mediante algoritmi di interpolazione e tecniche avanzate di elaborazione delle immagini, che aggiungono dettagli artificiali per migliorare l&#039;aspetto dell&#039;immagine.&lt;br /&gt;
&lt;br /&gt;
- Hires Steps: migliorano la qualità dell&#039;immagine attraverso iterazioni aggiuntive durante il processo di generazione&lt;br /&gt;
&lt;br /&gt;
- Denoising strenght&lt;br /&gt;
&lt;br /&gt;
- Upscale by: L&#039;upscale di solito avviene dopo che l&#039;immagine è stata completamente generata. L&#039;immagine viene resa più grande senza perdere significativamente in qualità o dettaglio. Si esprime come un multiplier delle dimensioni dell&#039;immagine generata, da 1 a 4.&lt;br /&gt;
&lt;br /&gt;
* Width/Height: Dimensioni&lt;br /&gt;
&lt;br /&gt;
* Batch count: il numero di gruppi in cui i dati vengono divisi durante l&#039;elaborazione. Più batch count può significare una maggiore divisione dei dati durante il processo.&lt;br /&gt;
&lt;br /&gt;
* Batch size: quanti dati vengono elaborati contemporaneamente in ciascun gruppo. Un batch size più grande può accelerare il processo ma richiedere più memoria, mentre un batch size più piccolo può richiedere più tempo ma portare a risultati più precisi.&lt;br /&gt;
&lt;br /&gt;
* CFG Scale (Classifier Free Guidance Scale)&lt;br /&gt;
&lt;br /&gt;
* Seed: Un numero che inizializza il generatore di numeri casuali. Utilizzare lo stesso seed con gli stessi parametri di input produrrà sempre la stessa immagine. È utile per la riproducibilità o per fare piccoli aggiustamenti su un&#039;immagine esistente.&lt;br /&gt;
=Tecniche=&lt;br /&gt;
*[[TextualInversion]]&lt;br /&gt;
*[[Hypernetworks]]&lt;br /&gt;
*[[LoRA]]&lt;br /&gt;
&lt;br /&gt;
= Sperimentazioni =&lt;br /&gt;
Per effettuare un&#039;analisi bilanciata utilizzeremo gli stessi due metri di giudizio per valutare gli output:&lt;br /&gt;
&lt;br /&gt;
* Inception Score&lt;br /&gt;
* Visual Inspection by GPT4&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Denoising Strength =&lt;br /&gt;
Questo parametro si riferisce all&#039;intensità della &#039;&#039;&#039;riduzione del rumore&#039;&#039;&#039; applicata a un&#039;immagine. Il &amp;quot;rumore&amp;quot; è il termine usato per descrivere &#039;&#039;&#039;variazioni casuali e non desiderate&#039;&#039;&#039; nei livelli di luminosità o colore di un&#039;immagine, che possono renderla &#039;&#039;&#039;granulosa&#039;&#039;&#039; o &#039;&#039;&#039;offuscata&#039;&#039;&#039; e possono distorcere i dettagli.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
(Le sperimentazioni iniziano dopo il valore 0, poiché non si sta fornendo al modello l&#039;opportunità di &amp;quot;pulire&amp;quot; o trasformare il rumore in un&#039;immagine coerente basata sul prompt fornito)&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:Cooking_1.png|miniatura|200x200px|Denoising Strength = 0,1]]&lt;br /&gt;
|[[File:Cooking_2.png|miniatura|200x200px|Denoising Strength = 0,3]]&lt;br /&gt;
|[[File:Cooking_3.png|miniatura|200x200px|Denoising Strength = 0,7]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Impostando il Denoising Strenght a &amp;quot;0,1&amp;quot;, si nota un&#039;elevata quantità di rumore che rende indefiniti sia i dettagli che le sagome degli elementi a schermo. Aumentando de facto il valore del parametro si può osservare nettamente la differenza e l&#039;efficacia fra il valore intermedio (0,3) e quello iniziale, fino ad arrivare ad una qualità più che sufficiente impostando il parametro a &amp;quot;0,7&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
==Visual inspection by ChatGPT4==&lt;br /&gt;
Qui di seguito ci sarà una descrizione di ChatGPT4 sulla qualità delle immagini, in modo da comprendere se il modello riesca a individuare rumore e artefatti.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;&amp;lt;Le tre immagini mostrano una sequenza di azioni in una cucina, con un uomo che sembra impegnato nella preparazione di un piatto di carne. Nella prima immagine, il cuoco sta flambando la carne, creando un effetto visivo spettacolare con le fiamme che si alzano dalla padella. Nella seconda, appare concentrato nel girare o condire la carne, mentre nella terza è intento a cucinare, forse verificando la cottura o aggiungendo altri ingredienti.&lt;br /&gt;
Ogni immagine ha una qualità elevata, con dettagli nitidi e colori vivaci che catturano bene la scena della cucina. L&#039;illuminazione è ben gestita, evidenziando le azioni del cuoco e dando vita agli alimenti in preparazione. La composizione è dinamica e sembra che ci sia stata attenzione nel posizionare ogni elemento per creare una scena armoniosa che guida l&#039;occhio verso il soggetto principale senza distrazioni superflue.&lt;br /&gt;
Non si notano artefatti che suggeriscono una manipolazione digitale e le immagini trasmettono un senso di autenticità e professionalità. Ciò suggerisce che probabilmente sono state scattate durante una vera sessione di cucina e che fanno parte di una serie tematica ben pianificata. In sintesi, si tratta di una rappresentazione coerente e accattivante del processo culinario in azione.&amp;gt;&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dalla descrizione fornita, si nota come ChatGPT4 non riesca ad individuare le differenze sostanziali presenti fra le tre immagini, dimostrando comunque la capacità di saper descrivere il contesto in modo eccellente.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: CFG Scale =&lt;br /&gt;
Questo parametro controlla quanto fedelmente il processo di generazione delle immagini &#039;&#039;&#039;segue&#039;&#039;&#039; il prompt di testo fornito. Un valore più alto del CFG Scale significa che l&#039;immagine generata sarà più &#039;&#039;&#039;aderente&#039;&#039;&#039; al testo di input, ossia seguirà più strettamente le indicazioni date. In contrasto, un valore più basso dà al modello più libertà di &#039;&#039;&#039;inventare&#039;&#039;&#039; o di essere &#039;&#039;&#039;creativo&#039;&#039;&#039;, portando a risultati che possono &#039;&#039;&#039;deviare&#039;&#039;&#039; di più dal prompt originale.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:CookingCFG2.png|miniatura|200x200px|CFG = 1]]&lt;br /&gt;
|[[File:CookingCFG1.png|miniatura|200x200px|CFG = 3]]&lt;br /&gt;
|[[File:Cooking_3.png|miniatura|200x200px|CFG = 15]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Impostando il parametro al suo valore minimo si nota come il modello segua ben poco il prompt fornito. Viene presentato un ragazzo e non un uomo, situato in un posto che ricorda appena una cucina, mentre sta cucinando del cibo che ricorda vagamente la carne. Con un valore pari a &amp;quot;3&amp;quot;, il setting è già interamente riconoscibile. In questo caso sono solo le azioni che vengono rappresentate a schermo ad essere poco chiare, poiché si nota un uomo che ha messo una fetta di carne in un forno a legna. L&#039;ultima immagine mostra un contesto totalmente credibile: sia l&#039;ambiente che le azioni sono coerenti con il prompt fornito, benché gli unici difetti facilmente visibili sono gli oggetti che l&#039;uomo tiene in mano per cucinare, essendo poco definiti.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Share Attention in Batch =&lt;br /&gt;
Il parametro &amp;quot;&#039;&#039;&#039;Share attention in batch&#039;&#039;&#039;&amp;quot; è una funzionalità dove l&#039;attenzione del modello, ovvero la parte che il modello &amp;quot;considera&amp;quot; più importante durante la generazione dell&#039;immagine, viene &#039;&#039;&#039;condivisa&#039;&#039;&#039; o &#039;&#039;&#039;sincronizzata&#039;&#039;&#039; tra le immagini in un batch. Quando si generano &#039;&#039;&#039;più immagini contemporaneamente (un batch)&#039;&#039;&#039;, questo parametro fa in modo che tutte le immagini nel batch diano priorità a parti simili dell&#039;input, o che le caratteristiche stilistiche siano &#039;&#039;&#039;coerenti&#039;&#039;&#039; tra di loro. Per esempio, se si stanno generando immagini di volti e si vuole che l&#039;attenzione sia focalizzata sugli occhi per tutti i volti nel batch, attivare questa opzione potrebbe aiutare a garantire che tutti i volti generati abbiano occhi ben definiti e uno stile simile. Questo può essere particolarmente utile quando l&#039;obiettivo è creare una serie di immagini che devono essere visivamente coerenti l&#039;una con l&#039;altra.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:Cookingstyle1.png|miniatura|200x200px|SAIB = off]]&lt;br /&gt;
|[[File:Cookingstyle2.png|miniatura|200x200px|SAIB = on]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Hires steps =&lt;br /&gt;
Questo parametro si riferisce ai &#039;&#039;&#039;passaggi aggiuntivi&#039;&#039;&#039; di elaborazione che vengono eseguiti per &#039;&#039;&#039;rifinire&#039;&#039;&#039; l&#039;immagine dopo la sua creazione iniziale. Aumentare l&#039;Hire ssteps può migliorare la qualità dell&#039;immagine, ma &#039;&#039;&#039;rallenterà&#039;&#039;&#039; anche il processo di generazione.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on, &#039;&#039;&#039;the steak is being cooked on a pan&#039;&#039;&#039;&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:CookingHS1.png|miniatura|200x200px|Hire steps = 0]]&lt;br /&gt;
|[[File:CookingHS3.png|miniatura|200x200px|Hire steps = 100]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
In questa sperimentazione si notano poche differenze fra un&#039;immagine e l&#039;altra; fra l&#039;assenza del parametro e il suo valore massimo. L&#039;unico difetto individuabile si trova nella prima immagine dove l&#039;uomo sta cercando di cuocere la carne senza una padella.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: SelfAttentionGuidance Integrated =&lt;br /&gt;
Questa tecnica è progettata per rendere il processo di generazione delle immagini &#039;&#039;&#039;più semplice e veloce&#039;&#039;&#039; per l&#039;utente, migliorando allo stesso tempo la &#039;&#039;&#039;qualità&#039;&#039;&#039; delle immagini prodotte. La funzionalità integrata della &amp;quot;self attention guidance&amp;quot; può aiutare a creare immagini che appaiono &#039;&#039;&#039;più realistiche&#039;&#039;&#039; e con oggetti &#039;&#039;&#039;meglio definiti&#039;&#039;&#039; senza che l&#039;utente debba effettuare configurazioni complesse o &#039;&#039;&#039;passaggi supplementari&#039;&#039;&#039;.&lt;br /&gt;
Il termine &amp;quot;&#039;&#039;&#039;Scale&#039;&#039;&#039;&amp;quot; si riferisce all&#039;intensità con cui la guida basata sull&#039;auto-attenzione viene applicata durante il processo di generazione. Una &amp;quot;Scale&amp;quot; maggiore implica &#039;&#039;&#039;un&#039;adesione più forte al prompt testuale&#039;&#039;&#039; e può portare a immagini più &#039;&#039;&#039;dettagliate e coerenti con l&#039;input&#039;&#039;&#039;, anche se potrebbe ridurre la diversità delle immagini generate.&lt;br /&gt;
Il parametro &amp;quot;&#039;&#039;&#039;Blur Sigma&#039;&#039;&#039;&amp;quot;, invece, è associato al &#039;&#039;&#039;grado di sfocatura&#039;&#039;&#039; che viene applicato alle regioni selezionate di un&#039;immagine. Questo processo agisce dove le aree con maggiore auto-attenzione — ovvero quelle parti dell&#039;immagine che il modello riconosce come più importanti o informative — vengono &#039;&#039;&#039;sfocate&#039;&#039;&#039; leggermente. L&#039;idea è che &#039;&#039;&#039;enfatizzando&#039;&#039;&#039; il lavoro del modello su queste aree sfocate, il modello può generare risultati migliori, perfezionando le parti &#039;&#039;&#039;più significative&#039;&#039;&#039; dell&#039;immagine e &#039;&#039;&#039;riducendo&#039;&#039;&#039; potenzialmente il &#039;&#039;&#039;rumore&#039;&#039;&#039; o i &#039;&#039;&#039;dettagli superflui&#039;&#039;&#039; nelle regioni meno importanti.&lt;br /&gt;
I valori di default sono i seguenti: &amp;lt;&amp;lt;&#039;&#039;&#039;Scale = 0,5&#039;&#039;&#039;&amp;gt;&amp;gt; - &amp;lt;&amp;lt;&#039;&#039;&#039;Blur sigma = 2&#039;&#039;&#039;&amp;gt;&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on, &#039;&#039;&#039;the steak is being cooked on a pan&#039;&#039;&#039;&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:SAG_none_-_default.jpg|miniatura|200x200px|Tecnica omessa e valori default]]&lt;br /&gt;
|[[File:SAG_Scale.jpg|miniatura|200x200px|SAG Scale (da sinistra): -2; 1; 5]]&lt;br /&gt;
|[[File:SAG_BS.jpg|miniatura|200x200px|SAG BS (da sinistra): 0,1; 5; 10]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Nella prima immagine si osserva il confronto tra l&#039;immagine generata senza la tecnica del SAG e quella generata con quest&#039;ultima. Si evidenzia come l&#039;immagine generata con la tecnica con valori impostati di default sia di qualità inferiore alla prima, suggerendo che bisogna regolare i parametri di &amp;quot;scale&amp;quot; e di &amp;quot;blur sigma&amp;quot;. Per quanto riguarda le immagini generate variando solo il parametro di scale, si nota come si ottengano dei pessimi risultati impostando dei valori sia troppo bassi che troppo alti, e che quindi sia necessario lavorare nei valori intermedi (i risultati cambiano in base alla complessità del prompt). Relativamente al parametro di Blur sigma, si notano poche differenze fra le tre immagini, benché ci siano errori evidenti sul modo in cui l&#039;uomo tenga in mano degli oggetti difficilmente identificabili, soprattutto nei valori &amp;quot;0,1&amp;quot; e &amp;quot;10&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
=Altri componenti=&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:altrefunzioni.png|miniatura|500x500px|Tecniche]]&lt;br /&gt;
|}&lt;br /&gt;
==&#039;&#039;&#039;ControlNet&#039;&#039;&#039;== &lt;br /&gt;
Un modello di &#039;&#039;&#039;rete neurale&#039;&#039;&#039; progettato per controllare i modelli di Stable Diffusion, fornendo agli utenti un &#039;&#039;&#039;controllo dettagliato&#039;&#039;&#039; sugli output dei modelli di diffusione nelle attività di generazione di testo in immagine. ControlNet è una struttura di rete neurale che consente &#039;&#039;&#039;l&#039;aggiunta di condizioni aggiuntive&#039;&#039;&#039; per influenzare l&#039;output dei modelli di diffusione. Queste condizioni possono assumere molte forme, come [[Edge maps]], [[Depth maps]], e [[Semantic segmentations]]. L&#039;uso di ControlNet su Stable Diffusion offre numerosi vantaggi. Consente un controllo preciso sulla semantica e sulle caratteristiche del contenuto generato, consentendo la generazione di output più &#039;&#039;&#039;accurati&#039;&#039;&#039; e &#039;&#039;&#039;personalizzati&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;DynamicThresholding (CFG-Fix)&#039;&#039;&#039;==  &lt;br /&gt;
è un &#039;&#039;&#039;filtro&#039;&#039;&#039; per migliorare le immagini. Aiuta a risolvere &#039;&#039;&#039;problemi di colore&#039;&#039;&#039; quando si usano &#039;&#039;&#039;impostazioni più alte&#039;&#039;&#039;. Queste ultime, si riferiscono a valori maggiori o livelli superiori, significa utilizzare valori più grandi per &#039;&#039;&#039;migliorare&#039;&#039;&#039; l’immagine. Ad esempio, se un’immagine è leggermente sbiadita e la si vuole rendere più nitida, è possibile aumentare determinati parametri. Tuttavia, a volte, quando si usano valori troppo alti, potrebbero verificarsi problemi di colore. Ecco dove entra in gioco CFG-Fix: risolve questi problemi di colore quando si utilizzano impostazioni elevate.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;FreeU&#039;&#039;&#039;== &lt;br /&gt;
Un componente aggiuntivo di Stable Diffusion che migliora la qualità dell&#039;immagine modificando il &#039;&#039;&#039;denoiser&#039;&#039;&#039; del modello. Il miglioramento avviene senza costi: nessun addestramento, nessun parametro aggiuntivo introdotto e nessun aumento della memoria o del tempo di campionamento.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A 25 year old mage, dress, full body, magic, lightning, rim light, moon, night&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra e utilizzo FreeU.&lt;br /&gt;
&lt;br /&gt;
[[File:maga.png|300px]] [[File:magaFreeU.png|300px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;HyperTile&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;metodo&#039;&#039;&#039; che ottimizza il livello di &#039;&#039;&#039;auto-attenzione&#039;&#039;&#039; all’interno dei modelli Stable-Diffusion. Questo porta a una &#039;&#039;&#039;riduzione del tempo di calcolo&#039;&#039;&#039; che varia da 1 a 4 volte, a seconda della &#039;&#039;&#039;risoluzione iniziale&#039;&#039;&#039;.&lt;br /&gt;
==&#039;&#039;&#039;Kohya HRFix&#039;&#039;&#039;== &lt;br /&gt;
è un’&#039;&#039;&#039;estensione&#039;&#039;&#039; utilizzata nei modelli Stable-Diffusion per migliorare la risoluzione delle immagini generate. Questa estensione è stata sviluppata da Kohya e ha lo scopo di &#039;&#039;&#039;limitare i problemi di clonazione/crollo&#039;&#039;&#039; nelle immagini ad alta risoluzione. Tuttavia, l’uso di Kohya HRFix può ridurre la varietà delle immagini generate, rendendole più identiche tra loro. Le impostazioni ottimali per Kohya HRFix possono variare a seconda delle esigenze specifiche dell’utente.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;LatentModifier&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;componente&#039;&#039;&#039; che &#039;&#039;&#039;modifica i valori latenti&#039;&#039;&#039; durante il &#039;&#039;&#039;processo di diffusione&#039;&#039;&#039; in un modello di generazione di immagini. Queste modifiche possono influenzare vari aspetti dell’immagine finale, come la &#039;&#039;&#039;nitidezza&#039;&#039;&#039;, il &#039;&#039;&#039;contrasto&#039;&#039;&#039; e il &#039;&#039;&#039;rumore&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A potrait of a white cat, cozy house&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra e utilizzo LatentModifier.&lt;br /&gt;
&lt;br /&gt;
[[File:Gattobianco1.png|300px]] [[File:Latentgatto.png|300px]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;MultiDiffusion&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;framework&#039;&#039;&#039; unificato che consente la generazione di immagini &#039;&#039;&#039;versatili&#039;&#039;&#039; e &#039;&#039;&#039;controllabili&#039;&#039;&#039;, utilizzando un modello di diffusione text-to-image pre-addestrato. Al centro dell’approccio c’è un nuovo processo di generazione, basato su un compito di &#039;&#039;&#039;ottimizzazione&#039;&#039;&#039; che lega insieme &#039;&#039;&#039;più processi&#039;&#039;&#039; di generazione di diffusione con un &#039;&#039;&#039;insieme condiviso di parametri o vincoli&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;Never OOM&#039;&#039;&#039;== &lt;br /&gt;
è un’&#039;&#039;&#039;opzione&#039;&#039;&#039; che permette di scaricare sempre i modelli dalla &#039;&#039;&#039;VRAM&#039;&#039;&#039;. Questo può essere utile se si utilizzano &#039;&#039;&#039;più software insieme&#039;&#039;&#039; e si desidera che Stable Diffusion utilizzi meno VRAM e ne dia &#039;&#039;&#039;una parte ad altri software&#039;&#039;&#039;, o quando si utilizzano vecchie estensioni che competono con la VRAM di Stable Diffusion. [[Category:strumento]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;Script&#039;&#039;&#039;==&lt;br /&gt;
Questa funzione è utilizzata per implementare &#039;&#039;&#039;script personalizzati&#039;&#039;&#039; che possono modificare il &#039;&#039;&#039;comportamento&#039;&#039;&#039; del processo di generazione di immagini.&lt;br /&gt;
*&#039;&#039;&#039;None&#039;&#039;&#039;: Questa è l’opzione predefinita che significa che non viene eseguito alcuno script.&lt;br /&gt;
*&#039;&#039;&#039;Prompt matrix&#039;&#039;&#039;: permette di testare e confrontare le modifiche che i prompt apportano alle immagini generate. Si possono strutturare i prompt in modo che ogni immagine nella matrice abbia un prompt che inizia con una frase comune.Per esempio, una immagine avrà il prompt “una ciotola di frutta, mele”, un’altra avrà “una ciotola di frutta, mele, pere” e così via.&lt;br /&gt;
*&#039;&#039;&#039;Prompts from file or textbox&#039;&#039;&#039;: permette di caricare i prompt da un file o da un textbox. Si può creare un prompt a piacimento, creare un numero x di variazioni su di esso, copiare quel file di testo, e ripetere fino a quando non hai centinaia di mini file di testo.&lt;br /&gt;
*&#039;&#039;&#039;X/Y/Z plot&#039;&#039;&#039;: permette di eseguire test sui propri prompt e impostazioni per vedere i risultati, senza impegnarsi in una generazione di immagini completa. Utilizzando un grafico, si possono confrontare i risultati per vedere quale combinazione di impostazioni funziona meglio.&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Txt2img_(Stable_Diffusion)&amp;diff=1521</id>
		<title>Txt2img (Stable Diffusion)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Txt2img_(Stable_Diffusion)&amp;diff=1521"/>
		<updated>2024-03-22T11:50:04Z</updated>

		<summary type="html">&lt;p&gt;Stefano: /* LatentModifier */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Txt2img è un tool di [[Stable Diffusion]] che, come intuibile, genera un&#039;immagine .png basata su un prompt testuale. Il suo ultimo aggiornamento risale al 28 Ottobre 2022.&lt;br /&gt;
&lt;br /&gt;
I parametri di Txt2img non verranno descritti con massimo dettaglio dal momento che la finalità di questa Wiki entry è di fornire delle linee guida comprovate da sperimentazione diretta.&lt;br /&gt;
&lt;br /&gt;
* Il primo obiettivo è ricondurre con praticità il livello di performance riscontrato nel modello alle relative combinazioni di parametri.&lt;br /&gt;
&lt;br /&gt;
* Il secondo obiettivo è creare collegamenti tra ciascun parametro e la corrispondente sezione dell&#039;architettura.&lt;br /&gt;
&lt;br /&gt;
= Link di approfondimento =&lt;br /&gt;
Nel caso si voglia approfondire i setting si può visitare il github relativo alla UI: [https://github.com/AUTOMATIC1111/stable-diffusion-webui]&lt;br /&gt;
&lt;br /&gt;
Nel caso si voglia approfondire l&#039;architettura generale si può visitare il repository: [https://github.com/Stability-AI/stablediffusion]&lt;br /&gt;
&lt;br /&gt;
= Overview dell&#039;interfaccia =&lt;br /&gt;
[[File:Overview_diffusion.png|700x700px]]&lt;br /&gt;
&lt;br /&gt;
* [[Sampling method (Stable Diffusion)|Sampling method]]&lt;br /&gt;
&lt;br /&gt;
* Sampling steps:&lt;br /&gt;
&lt;br /&gt;
-Tra l&#039;1 e i 15 step: l&#039;immagine è relativamente sfocata.&lt;br /&gt;
&lt;br /&gt;
-Tra i 15 e i 25 step: L&#039;immagine è abbastanza chiara e di buona qualità.&lt;br /&gt;
&lt;br /&gt;
-Tra i 25 e i 45: La qualità dell&#039;immagine è molto alta e comprende la texture.&lt;br /&gt;
&lt;br /&gt;
-Dai 45 in poi: La loss function si stabilizza e si osserva una variazione minima nella risoluzione.&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:Sampling step 5.png|miniatura|5 step]]&lt;br /&gt;
![[File:10 step.png|miniatura|10 step]]&lt;br /&gt;
![[File:15 step.png|miniatura|15 step]]&lt;br /&gt;
|}&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:25 step.png|miniatura|25 step]]&lt;br /&gt;
![[File:40 step.png|miniatura|40 step]]&lt;br /&gt;
![[File:60 step.png|miniatura|60 step]]&lt;br /&gt;
|}&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:1 step.png|miniatura|1 step]]&lt;br /&gt;
![[File:150 step.png|miniatura|150 step]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
====== Upscaler: ======&lt;br /&gt;
L&#039;upscaling è il processo di aumentare la risoluzione di un&#039;immagine, cioè di ingrandirla, mantenendo al contempo la qualità visiva il più alta possibile e può essere ottenuto mediante algoritmi di interpolazione e tecniche avanzate di elaborazione delle immagini, che aggiungono dettagli artificiali per migliorare l&#039;aspetto dell&#039;immagine.&lt;br /&gt;
&lt;br /&gt;
- Hires Steps: migliorano la qualità dell&#039;immagine attraverso iterazioni aggiuntive durante il processo di generazione&lt;br /&gt;
&lt;br /&gt;
- Denoising strenght&lt;br /&gt;
&lt;br /&gt;
- Upscale by: L&#039;upscale di solito avviene dopo che l&#039;immagine è stata completamente generata. L&#039;immagine viene resa più grande senza perdere significativamente in qualità o dettaglio. Si esprime come un multiplier delle dimensioni dell&#039;immagine generata, da 1 a 4.&lt;br /&gt;
&lt;br /&gt;
* Width/Height: Dimensioni&lt;br /&gt;
&lt;br /&gt;
* Batch count: il numero di gruppi in cui i dati vengono divisi durante l&#039;elaborazione. Più batch count può significare una maggiore divisione dei dati durante il processo.&lt;br /&gt;
&lt;br /&gt;
* Batch size: quanti dati vengono elaborati contemporaneamente in ciascun gruppo. Un batch size più grande può accelerare il processo ma richiedere più memoria, mentre un batch size più piccolo può richiedere più tempo ma portare a risultati più precisi.&lt;br /&gt;
&lt;br /&gt;
* CFG Scale (Classifier Free Guidance Scale)&lt;br /&gt;
&lt;br /&gt;
* Seed: Un numero che inizializza il generatore di numeri casuali. Utilizzare lo stesso seed con gli stessi parametri di input produrrà sempre la stessa immagine. È utile per la riproducibilità o per fare piccoli aggiustamenti su un&#039;immagine esistente.&lt;br /&gt;
=Tecniche=&lt;br /&gt;
*[[TextualInversion]]&lt;br /&gt;
*[[Hypernetworks]]&lt;br /&gt;
*[[LoRA]]&lt;br /&gt;
&lt;br /&gt;
= Sperimentazioni =&lt;br /&gt;
Per effettuare un&#039;analisi bilanciata utilizzeremo gli stessi due metri di giudizio per valutare gli output:&lt;br /&gt;
&lt;br /&gt;
* Inception Score&lt;br /&gt;
* Visual Inspection by GPT4&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Denoising Strength =&lt;br /&gt;
Questo parametro si riferisce all&#039;intensità della &#039;&#039;&#039;riduzione del rumore&#039;&#039;&#039; applicata a un&#039;immagine. Il &amp;quot;rumore&amp;quot; è il termine usato per descrivere &#039;&#039;&#039;variazioni casuali e non desiderate&#039;&#039;&#039; nei livelli di luminosità o colore di un&#039;immagine, che possono renderla &#039;&#039;&#039;granulosa&#039;&#039;&#039; o &#039;&#039;&#039;offuscata&#039;&#039;&#039; e possono distorcere i dettagli.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
(Le sperimentazioni iniziano dopo il valore 0, poiché non si sta fornendo al modello l&#039;opportunità di &amp;quot;pulire&amp;quot; o trasformare il rumore in un&#039;immagine coerente basata sul prompt fornito)&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:Cooking_1.png|miniatura|200x200px|Denoising Strength = 0,1]]&lt;br /&gt;
|[[File:Cooking_2.png|miniatura|200x200px|Denoising Strength = 0,3]]&lt;br /&gt;
|[[File:Cooking_3.png|miniatura|200x200px|Denoising Strength = 0,7]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Impostando il Denoising Strenght a &amp;quot;0,1&amp;quot;, si nota un&#039;elevata quantità di rumore che rende indefiniti sia i dettagli che le sagome degli elementi a schermo. Aumentando de facto il valore del parametro si può osservare nettamente la differenza e l&#039;efficacia fra il valore intermedio (0,3) e quello iniziale, fino ad arrivare ad una qualità più che sufficiente impostando il parametro a &amp;quot;0,7&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
==Visual inspection by ChatGPT4==&lt;br /&gt;
Qui di seguito ci sarà una descrizione di ChatGPT4 sulla qualità delle immagini, in modo da comprendere se il modello riesca a individuare rumore e artefatti.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;&amp;lt;Le tre immagini mostrano una sequenza di azioni in una cucina, con un uomo che sembra impegnato nella preparazione di un piatto di carne. Nella prima immagine, il cuoco sta flambando la carne, creando un effetto visivo spettacolare con le fiamme che si alzano dalla padella. Nella seconda, appare concentrato nel girare o condire la carne, mentre nella terza è intento a cucinare, forse verificando la cottura o aggiungendo altri ingredienti.&lt;br /&gt;
Ogni immagine ha una qualità elevata, con dettagli nitidi e colori vivaci che catturano bene la scena della cucina. L&#039;illuminazione è ben gestita, evidenziando le azioni del cuoco e dando vita agli alimenti in preparazione. La composizione è dinamica e sembra che ci sia stata attenzione nel posizionare ogni elemento per creare una scena armoniosa che guida l&#039;occhio verso il soggetto principale senza distrazioni superflue.&lt;br /&gt;
Non si notano artefatti che suggeriscono una manipolazione digitale e le immagini trasmettono un senso di autenticità e professionalità. Ciò suggerisce che probabilmente sono state scattate durante una vera sessione di cucina e che fanno parte di una serie tematica ben pianificata. In sintesi, si tratta di una rappresentazione coerente e accattivante del processo culinario in azione.&amp;gt;&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dalla descrizione fornita, si nota come ChatGPT4 non riesca ad individuare le differenze sostanziali presenti fra le tre immagini, dimostrando comunque la capacità di saper descrivere il contesto in modo eccellente.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: CFG Scale =&lt;br /&gt;
Questo parametro controlla quanto fedelmente il processo di generazione delle immagini &#039;&#039;&#039;segue&#039;&#039;&#039; il prompt di testo fornito. Un valore più alto del CFG Scale significa che l&#039;immagine generata sarà più &#039;&#039;&#039;aderente&#039;&#039;&#039; al testo di input, ossia seguirà più strettamente le indicazioni date. In contrasto, un valore più basso dà al modello più libertà di &#039;&#039;&#039;inventare&#039;&#039;&#039; o di essere &#039;&#039;&#039;creativo&#039;&#039;&#039;, portando a risultati che possono &#039;&#039;&#039;deviare&#039;&#039;&#039; di più dal prompt originale.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:CookingCFG2.png|miniatura|200x200px|CFG = 1]]&lt;br /&gt;
|[[File:CookingCFG1.png|miniatura|200x200px|CFG = 3]]&lt;br /&gt;
|[[File:Cooking_3.png|miniatura|200x200px|CFG = 15]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Impostando il parametro al suo valore minimo si nota come il modello segua ben poco il prompt fornito. Viene presentato un ragazzo e non un uomo, situato in un posto che ricorda appena una cucina, mentre sta cucinando del cibo che ricorda vagamente la carne. Con un valore pari a &amp;quot;3&amp;quot;, il setting è già interamente riconoscibile. In questo caso sono solo le azioni che vengono rappresentate a schermo ad essere poco chiare, poiché si nota un uomo che ha messo una fetta di carne in un forno a legna. L&#039;ultima immagine mostra un contesto totalmente credibile: sia l&#039;ambiente che le azioni sono coerenti con il prompt fornito, benché gli unici difetti facilmente visibili sono gli oggetti che l&#039;uomo tiene in mano per cucinare, essendo poco definiti.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Share Attention in Batch =&lt;br /&gt;
Il parametro &amp;quot;&#039;&#039;&#039;Share attention in batch&#039;&#039;&#039;&amp;quot; è una funzionalità dove l&#039;attenzione del modello, ovvero la parte che il modello &amp;quot;considera&amp;quot; più importante durante la generazione dell&#039;immagine, viene &#039;&#039;&#039;condivisa&#039;&#039;&#039; o &#039;&#039;&#039;sincronizzata&#039;&#039;&#039; tra le immagini in un batch. Quando si generano &#039;&#039;&#039;più immagini contemporaneamente (un batch)&#039;&#039;&#039;, questo parametro fa in modo che tutte le immagini nel batch diano priorità a parti simili dell&#039;input, o che le caratteristiche stilistiche siano &#039;&#039;&#039;coerenti&#039;&#039;&#039; tra di loro. Per esempio, se si stanno generando immagini di volti e si vuole che l&#039;attenzione sia focalizzata sugli occhi per tutti i volti nel batch, attivare questa opzione potrebbe aiutare a garantire che tutti i volti generati abbiano occhi ben definiti e uno stile simile. Questo può essere particolarmente utile quando l&#039;obiettivo è creare una serie di immagini che devono essere visivamente coerenti l&#039;una con l&#039;altra.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:Cookingstyle1.png|miniatura|200x200px|SAIB = off]]&lt;br /&gt;
|[[File:Cookingstyle2.png|miniatura|200x200px|SAIB = on]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Hires steps =&lt;br /&gt;
Questo parametro si riferisce ai &#039;&#039;&#039;passaggi aggiuntivi&#039;&#039;&#039; di elaborazione che vengono eseguiti per &#039;&#039;&#039;rifinire&#039;&#039;&#039; l&#039;immagine dopo la sua creazione iniziale. Aumentare l&#039;Hire ssteps può migliorare la qualità dell&#039;immagine, ma &#039;&#039;&#039;rallenterà&#039;&#039;&#039; anche il processo di generazione.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on, &#039;&#039;&#039;the steak is being cooked on a pan&#039;&#039;&#039;&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:CookingHS1.png|miniatura|200x200px|Hire steps = 0]]&lt;br /&gt;
|[[File:CookingHS3.png|miniatura|200x200px|Hire steps = 100]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
In questa sperimentazione si notano poche differenze fra un&#039;immagine e l&#039;altra; fra l&#039;assenza del parametro e il suo valore massimo. L&#039;unico difetto individuabile si trova nella prima immagine dove l&#039;uomo sta cercando di cuocere la carne senza una padella.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: SelfAttentionGuidance Integrated =&lt;br /&gt;
Questa tecnica è progettata per rendere il processo di generazione delle immagini &#039;&#039;&#039;più semplice e veloce&#039;&#039;&#039; per l&#039;utente, migliorando allo stesso tempo la &#039;&#039;&#039;qualità&#039;&#039;&#039; delle immagini prodotte. La funzionalità integrata della &amp;quot;self attention guidance&amp;quot; può aiutare a creare immagini che appaiono &#039;&#039;&#039;più realistiche&#039;&#039;&#039; e con oggetti &#039;&#039;&#039;meglio definiti&#039;&#039;&#039; senza che l&#039;utente debba effettuare configurazioni complesse o &#039;&#039;&#039;passaggi supplementari&#039;&#039;&#039;.&lt;br /&gt;
Il termine &amp;quot;&#039;&#039;&#039;Scale&#039;&#039;&#039;&amp;quot; si riferisce all&#039;intensità con cui la guida basata sull&#039;auto-attenzione viene applicata durante il processo di generazione. Una &amp;quot;Scale&amp;quot; maggiore implica &#039;&#039;&#039;un&#039;adesione più forte al prompt testuale&#039;&#039;&#039; e può portare a immagini più &#039;&#039;&#039;dettagliate e coerenti con l&#039;input&#039;&#039;&#039;, anche se potrebbe ridurre la diversità delle immagini generate.&lt;br /&gt;
Il parametro &amp;quot;&#039;&#039;&#039;Blur Sigma&#039;&#039;&#039;&amp;quot;, invece, è associato al &#039;&#039;&#039;grado di sfocatura&#039;&#039;&#039; che viene applicato alle regioni selezionate di un&#039;immagine. Questo processo agisce dove le aree con maggiore auto-attenzione — ovvero quelle parti dell&#039;immagine che il modello riconosce come più importanti o informative — vengono &#039;&#039;&#039;sfocate&#039;&#039;&#039; leggermente. L&#039;idea è che &#039;&#039;&#039;enfatizzando&#039;&#039;&#039; il lavoro del modello su queste aree sfocate, il modello può generare risultati migliori, perfezionando le parti &#039;&#039;&#039;più significative&#039;&#039;&#039; dell&#039;immagine e &#039;&#039;&#039;riducendo&#039;&#039;&#039; potenzialmente il &#039;&#039;&#039;rumore&#039;&#039;&#039; o i &#039;&#039;&#039;dettagli superflui&#039;&#039;&#039; nelle regioni meno importanti.&lt;br /&gt;
I valori di default sono i seguenti: &amp;lt;&amp;lt;&#039;&#039;&#039;Scale = 0,5&#039;&#039;&#039;&amp;gt;&amp;gt; - &amp;lt;&amp;lt;&#039;&#039;&#039;Blur sigma = 2&#039;&#039;&#039;&amp;gt;&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on, &#039;&#039;&#039;the steak is being cooked on a pan&#039;&#039;&#039;&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:SAG_none_-_default.jpg|miniatura|200x200px|Tecnica omessa e valori default]]&lt;br /&gt;
|[[File:SAG_Scale.jpg|miniatura|200x200px|SAG Scale (da sinistra): -2; 1; 5]]&lt;br /&gt;
|[[File:SAG_BS.jpg|miniatura|200x200px|SAG BS (da sinistra): 0,1; 5; 10]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Nella prima immagine si osserva il confronto tra l&#039;immagine generata senza la tecnica del SAG e quella generata con quest&#039;ultima. Si evidenzia come l&#039;immagine generata con la tecnica con valori impostati di default sia di qualità inferiore alla prima, suggerendo che bisogna regolare i parametri di &amp;quot;scale&amp;quot; e di &amp;quot;blur sigma&amp;quot;. Per quanto riguarda le immagini generate variando solo il parametro di scale, si nota come si ottengano dei pessimi risultati impostando dei valori sia troppo bassi che troppo alti, e che quindi sia necessario lavorare nei valori intermedi (i risultati cambiano in base alla complessità del prompt). Relativamente al parametro di Blur sigma, si notano poche differenze fra le tre immagini, benché ci siano errori evidenti sul modo in cui l&#039;uomo tenga in mano degli oggetti difficilmente identificabili, soprattutto nei valori &amp;quot;0,1&amp;quot; e &amp;quot;10&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
=Altri componenti=&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:altrefunzioni.png|miniatura|500x500px|Tecniche]]&lt;br /&gt;
|}&lt;br /&gt;
==&#039;&#039;&#039;ControlNet&#039;&#039;&#039;== &lt;br /&gt;
Un modello di &#039;&#039;&#039;rete neurale&#039;&#039;&#039; progettato per controllare i modelli di Stable Diffusion, fornendo agli utenti un &#039;&#039;&#039;controllo dettagliato&#039;&#039;&#039; sugli output dei modelli di diffusione nelle attività di generazione di testo in immagine. ControlNet è una struttura di rete neurale che consente &#039;&#039;&#039;l&#039;aggiunta di condizioni aggiuntive&#039;&#039;&#039; per influenzare l&#039;output dei modelli di diffusione. Queste condizioni possono assumere molte forme, come [[Edge maps]], [[Depth maps]], e [[Semantic segmentations]]. L&#039;uso di ControlNet su Stable Diffusion offre numerosi vantaggi. Consente un controllo preciso sulla semantica e sulle caratteristiche del contenuto generato, consentendo la generazione di output più &#039;&#039;&#039;accurati&#039;&#039;&#039; e &#039;&#039;&#039;personalizzati&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;DynamicThresholding (CFG-Fix)&#039;&#039;&#039;==  &lt;br /&gt;
è un &#039;&#039;&#039;filtro&#039;&#039;&#039; per migliorare le immagini. Aiuta a risolvere &#039;&#039;&#039;problemi di colore&#039;&#039;&#039; quando si usano &#039;&#039;&#039;impostazioni più alte&#039;&#039;&#039;. Queste ultime, si riferiscono a valori maggiori o livelli superiori, significa utilizzare valori più grandi per &#039;&#039;&#039;migliorare&#039;&#039;&#039; l’immagine. Ad esempio, se un’immagine è leggermente sbiadita e la si vuole rendere più nitida, è possibile aumentare determinati parametri. Tuttavia, a volte, quando si usano valori troppo alti, potrebbero verificarsi problemi di colore. Ecco dove entra in gioco CFG-Fix: risolve questi problemi di colore quando si utilizzano impostazioni elevate.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;FreeU&#039;&#039;&#039;== &lt;br /&gt;
Un componente aggiuntivo di Stable Diffusion che migliora la qualità dell&#039;immagine modificando il &#039;&#039;&#039;denoiser&#039;&#039;&#039; del modello. Il miglioramento avviene senza costi: nessun addestramento, nessun parametro aggiuntivo introdotto e nessun aumento della memoria o del tempo di campionamento.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A 25 year old mage, dress, full body, magic, lightning, rim light, moon, night&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra e utilizzo FreeU.&lt;br /&gt;
&lt;br /&gt;
[[File:maga.png|300px]] [[File:magaFreeU.png|300px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;HyperTile&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;metodo&#039;&#039;&#039; che ottimizza il livello di &#039;&#039;&#039;auto-attenzione&#039;&#039;&#039; all’interno dei modelli Stable-Diffusion. Questo porta a una &#039;&#039;&#039;riduzione del tempo di calcolo&#039;&#039;&#039; che varia da 1 a 4 volte, a seconda della &#039;&#039;&#039;risoluzione iniziale&#039;&#039;&#039;.&lt;br /&gt;
==&#039;&#039;&#039;Kohya HRFix&#039;&#039;&#039;== &lt;br /&gt;
è un’&#039;&#039;&#039;estensione&#039;&#039;&#039; utilizzata nei modelli Stable-Diffusion per migliorare la risoluzione delle immagini generate. Questa estensione è stata sviluppata da Kohya e ha lo scopo di &#039;&#039;&#039;limitare i problemi di clonazione/crollo&#039;&#039;&#039; nelle immagini ad alta risoluzione. Tuttavia, l’uso di Kohya HRFix può ridurre la varietà delle immagini generate, rendendole più identiche tra loro. Le impostazioni ottimali per Kohya HRFix possono variare a seconda delle esigenze specifiche dell’utente.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;LatentModifier&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;componente&#039;&#039;&#039; che &#039;&#039;&#039;modifica i valori latenti&#039;&#039;&#039; durante il &#039;&#039;&#039;processo di diffusione&#039;&#039;&#039; in un modello di generazione di immagini. Queste modifiche possono influenzare vari aspetti dell’immagine finale, come la &#039;&#039;&#039;nitidezza&#039;&#039;&#039;, il &#039;&#039;&#039;contrasto&#039;&#039;&#039; e il &#039;&#039;&#039;rumore&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A potrait of a white cat, cozy house&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra e utilizzo LatentModifier.&lt;br /&gt;
&lt;br /&gt;
[[File:Gattobianco1.png|300px]] [[File:Latentgatto.png|300px]]&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;MultiDiffusion&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;framework&#039;&#039;&#039; unificato che consente la generazione di immagini &#039;&#039;&#039;versatili&#039;&#039;&#039; e &#039;&#039;&#039;controllabili&#039;&#039;&#039;, utilizzando un modello di diffusione text-to-image pre-addestrato. Al centro dell’approccio c’è un nuovo processo di generazione, basato su un compito di &#039;&#039;&#039;ottimizzazione&#039;&#039;&#039; che lega insieme &#039;&#039;&#039;più processi&#039;&#039;&#039; di generazione di diffusione con un &#039;&#039;&#039;insieme condiviso di parametri o vincoli&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;Never OOM&#039;&#039;&#039;== &lt;br /&gt;
è un’&#039;&#039;&#039;opzione&#039;&#039;&#039; che permette di scaricare sempre i modelli dalla &#039;&#039;&#039;VRAM&#039;&#039;&#039;. Questo può essere utile se si utilizzano &#039;&#039;&#039;più software insieme&#039;&#039;&#039; e si desidera che Stable Diffusion utilizzi meno VRAM e ne dia &#039;&#039;&#039;una parte ad altri software&#039;&#039;&#039;, o quando si utilizzano vecchie estensioni che competono con la VRAM di Stable Diffusion. [[Category:strumento]]&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Txt2img_(Stable_Diffusion)&amp;diff=1519</id>
		<title>Txt2img (Stable Diffusion)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Txt2img_(Stable_Diffusion)&amp;diff=1519"/>
		<updated>2024-03-22T11:45:50Z</updated>

		<summary type="html">&lt;p&gt;Stefano: /* LatentModifier */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Txt2img è un tool di [[Stable Diffusion]] che, come intuibile, genera un&#039;immagine .png basata su un prompt testuale. Il suo ultimo aggiornamento risale al 28 Ottobre 2022.&lt;br /&gt;
&lt;br /&gt;
I parametri di Txt2img non verranno descritti con massimo dettaglio dal momento che la finalità di questa Wiki entry è di fornire delle linee guida comprovate da sperimentazione diretta.&lt;br /&gt;
&lt;br /&gt;
* Il primo obiettivo è ricondurre con praticità il livello di performance riscontrato nel modello alle relative combinazioni di parametri.&lt;br /&gt;
&lt;br /&gt;
* Il secondo obiettivo è creare collegamenti tra ciascun parametro e la corrispondente sezione dell&#039;architettura.&lt;br /&gt;
&lt;br /&gt;
= Link di approfondimento =&lt;br /&gt;
Nel caso si voglia approfondire i setting si può visitare il github relativo alla UI: [https://github.com/AUTOMATIC1111/stable-diffusion-webui]&lt;br /&gt;
&lt;br /&gt;
Nel caso si voglia approfondire l&#039;architettura generale si può visitare il repository: [https://github.com/Stability-AI/stablediffusion]&lt;br /&gt;
&lt;br /&gt;
= Overview dell&#039;interfaccia =&lt;br /&gt;
[[File:Overview_diffusion.png|700x700px]]&lt;br /&gt;
&lt;br /&gt;
* [[Sampling method (Stable Diffusion)|Sampling method]]&lt;br /&gt;
&lt;br /&gt;
* Sampling steps:&lt;br /&gt;
&lt;br /&gt;
-Tra l&#039;1 e i 15 step: l&#039;immagine è relativamente sfocata.&lt;br /&gt;
&lt;br /&gt;
-Tra i 15 e i 25 step: L&#039;immagine è abbastanza chiara e di buona qualità.&lt;br /&gt;
&lt;br /&gt;
-Tra i 25 e i 45: La qualità dell&#039;immagine è molto alta e comprende la texture.&lt;br /&gt;
&lt;br /&gt;
-Dai 45 in poi: La loss function si stabilizza e si osserva una variazione minima nella risoluzione.&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:Sampling step 5.png|miniatura|5 step]]&lt;br /&gt;
![[File:10 step.png|miniatura|10 step]]&lt;br /&gt;
![[File:15 step.png|miniatura|15 step]]&lt;br /&gt;
|}&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:25 step.png|miniatura|25 step]]&lt;br /&gt;
![[File:40 step.png|miniatura|40 step]]&lt;br /&gt;
![[File:60 step.png|miniatura|60 step]]&lt;br /&gt;
|}&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:1 step.png|miniatura|1 step]]&lt;br /&gt;
![[File:150 step.png|miniatura|150 step]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
====== Upscaler: ======&lt;br /&gt;
L&#039;upscaling è il processo di aumentare la risoluzione di un&#039;immagine, cioè di ingrandirla, mantenendo al contempo la qualità visiva il più alta possibile e può essere ottenuto mediante algoritmi di interpolazione e tecniche avanzate di elaborazione delle immagini, che aggiungono dettagli artificiali per migliorare l&#039;aspetto dell&#039;immagine.&lt;br /&gt;
&lt;br /&gt;
- Hires Steps: migliorano la qualità dell&#039;immagine attraverso iterazioni aggiuntive durante il processo di generazione&lt;br /&gt;
&lt;br /&gt;
- Denoising strenght&lt;br /&gt;
&lt;br /&gt;
- Upscale by: L&#039;upscale di solito avviene dopo che l&#039;immagine è stata completamente generata. L&#039;immagine viene resa più grande senza perdere significativamente in qualità o dettaglio. Si esprime come un multiplier delle dimensioni dell&#039;immagine generata, da 1 a 4.&lt;br /&gt;
&lt;br /&gt;
* Width/Height: Dimensioni&lt;br /&gt;
&lt;br /&gt;
* Batch count: il numero di gruppi in cui i dati vengono divisi durante l&#039;elaborazione. Più batch count può significare una maggiore divisione dei dati durante il processo.&lt;br /&gt;
&lt;br /&gt;
* Batch size: quanti dati vengono elaborati contemporaneamente in ciascun gruppo. Un batch size più grande può accelerare il processo ma richiedere più memoria, mentre un batch size più piccolo può richiedere più tempo ma portare a risultati più precisi.&lt;br /&gt;
&lt;br /&gt;
* CFG Scale (Classifier Free Guidance Scale)&lt;br /&gt;
&lt;br /&gt;
* Seed: Un numero che inizializza il generatore di numeri casuali. Utilizzare lo stesso seed con gli stessi parametri di input produrrà sempre la stessa immagine. È utile per la riproducibilità o per fare piccoli aggiustamenti su un&#039;immagine esistente.&lt;br /&gt;
=Tecniche=&lt;br /&gt;
*[[TextualInversion]]&lt;br /&gt;
*[[Hypernetworks]]&lt;br /&gt;
*[[LoRA]]&lt;br /&gt;
&lt;br /&gt;
= Sperimentazioni =&lt;br /&gt;
Per effettuare un&#039;analisi bilanciata utilizzeremo gli stessi due metri di giudizio per valutare gli output:&lt;br /&gt;
&lt;br /&gt;
* Inception Score&lt;br /&gt;
* Visual Inspection by GPT4&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Denoising Strength =&lt;br /&gt;
Questo parametro si riferisce all&#039;intensità della &#039;&#039;&#039;riduzione del rumore&#039;&#039;&#039; applicata a un&#039;immagine. Il &amp;quot;rumore&amp;quot; è il termine usato per descrivere &#039;&#039;&#039;variazioni casuali e non desiderate&#039;&#039;&#039; nei livelli di luminosità o colore di un&#039;immagine, che possono renderla &#039;&#039;&#039;granulosa&#039;&#039;&#039; o &#039;&#039;&#039;offuscata&#039;&#039;&#039; e possono distorcere i dettagli.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
(Le sperimentazioni iniziano dopo il valore 0, poiché non si sta fornendo al modello l&#039;opportunità di &amp;quot;pulire&amp;quot; o trasformare il rumore in un&#039;immagine coerente basata sul prompt fornito)&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:Cooking_1.png|miniatura|200x200px|Denoising Strength = 0,1]]&lt;br /&gt;
|[[File:Cooking_2.png|miniatura|200x200px|Denoising Strength = 0,3]]&lt;br /&gt;
|[[File:Cooking_3.png|miniatura|200x200px|Denoising Strength = 0,7]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Impostando il Denoising Strenght a &amp;quot;0,1&amp;quot;, si nota un&#039;elevata quantità di rumore che rende indefiniti sia i dettagli che le sagome degli elementi a schermo. Aumentando de facto il valore del parametro si può osservare nettamente la differenza e l&#039;efficacia fra il valore intermedio (0,3) e quello iniziale, fino ad arrivare ad una qualità più che sufficiente impostando il parametro a &amp;quot;0,7&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
==Visual inspection by ChatGPT4==&lt;br /&gt;
Qui di seguito ci sarà una descrizione di ChatGPT4 sulla qualità delle immagini, in modo da comprendere se il modello riesca a individuare rumore e artefatti.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;&amp;lt;Le tre immagini mostrano una sequenza di azioni in una cucina, con un uomo che sembra impegnato nella preparazione di un piatto di carne. Nella prima immagine, il cuoco sta flambando la carne, creando un effetto visivo spettacolare con le fiamme che si alzano dalla padella. Nella seconda, appare concentrato nel girare o condire la carne, mentre nella terza è intento a cucinare, forse verificando la cottura o aggiungendo altri ingredienti.&lt;br /&gt;
Ogni immagine ha una qualità elevata, con dettagli nitidi e colori vivaci che catturano bene la scena della cucina. L&#039;illuminazione è ben gestita, evidenziando le azioni del cuoco e dando vita agli alimenti in preparazione. La composizione è dinamica e sembra che ci sia stata attenzione nel posizionare ogni elemento per creare una scena armoniosa che guida l&#039;occhio verso il soggetto principale senza distrazioni superflue.&lt;br /&gt;
Non si notano artefatti che suggeriscono una manipolazione digitale e le immagini trasmettono un senso di autenticità e professionalità. Ciò suggerisce che probabilmente sono state scattate durante una vera sessione di cucina e che fanno parte di una serie tematica ben pianificata. In sintesi, si tratta di una rappresentazione coerente e accattivante del processo culinario in azione.&amp;gt;&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dalla descrizione fornita, si nota come ChatGPT4 non riesca ad individuare le differenze sostanziali presenti fra le tre immagini, dimostrando comunque la capacità di saper descrivere il contesto in modo eccellente.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: CFG Scale =&lt;br /&gt;
Questo parametro controlla quanto fedelmente il processo di generazione delle immagini &#039;&#039;&#039;segue&#039;&#039;&#039; il prompt di testo fornito. Un valore più alto del CFG Scale significa che l&#039;immagine generata sarà più &#039;&#039;&#039;aderente&#039;&#039;&#039; al testo di input, ossia seguirà più strettamente le indicazioni date. In contrasto, un valore più basso dà al modello più libertà di &#039;&#039;&#039;inventare&#039;&#039;&#039; o di essere &#039;&#039;&#039;creativo&#039;&#039;&#039;, portando a risultati che possono &#039;&#039;&#039;deviare&#039;&#039;&#039; di più dal prompt originale.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:CookingCFG2.png|miniatura|200x200px|CFG = 1]]&lt;br /&gt;
|[[File:CookingCFG1.png|miniatura|200x200px|CFG = 3]]&lt;br /&gt;
|[[File:Cooking_3.png|miniatura|200x200px|CFG = 15]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Impostando il parametro al suo valore minimo si nota come il modello segua ben poco il prompt fornito. Viene presentato un ragazzo e non un uomo, situato in un posto che ricorda appena una cucina, mentre sta cucinando del cibo che ricorda vagamente la carne. Con un valore pari a &amp;quot;3&amp;quot;, il setting è già interamente riconoscibile. In questo caso sono solo le azioni che vengono rappresentate a schermo ad essere poco chiare, poiché si nota un uomo che ha messo una fetta di carne in un forno a legna. L&#039;ultima immagine mostra un contesto totalmente credibile: sia l&#039;ambiente che le azioni sono coerenti con il prompt fornito, benché gli unici difetti facilmente visibili sono gli oggetti che l&#039;uomo tiene in mano per cucinare, essendo poco definiti.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Share Attention in Batch =&lt;br /&gt;
Il parametro &amp;quot;&#039;&#039;&#039;Share attention in batch&#039;&#039;&#039;&amp;quot; è una funzionalità dove l&#039;attenzione del modello, ovvero la parte che il modello &amp;quot;considera&amp;quot; più importante durante la generazione dell&#039;immagine, viene &#039;&#039;&#039;condivisa&#039;&#039;&#039; o &#039;&#039;&#039;sincronizzata&#039;&#039;&#039; tra le immagini in un batch. Quando si generano &#039;&#039;&#039;più immagini contemporaneamente (un batch)&#039;&#039;&#039;, questo parametro fa in modo che tutte le immagini nel batch diano priorità a parti simili dell&#039;input, o che le caratteristiche stilistiche siano &#039;&#039;&#039;coerenti&#039;&#039;&#039; tra di loro. Per esempio, se si stanno generando immagini di volti e si vuole che l&#039;attenzione sia focalizzata sugli occhi per tutti i volti nel batch, attivare questa opzione potrebbe aiutare a garantire che tutti i volti generati abbiano occhi ben definiti e uno stile simile. Questo può essere particolarmente utile quando l&#039;obiettivo è creare una serie di immagini che devono essere visivamente coerenti l&#039;una con l&#039;altra.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:Cookingstyle1.png|miniatura|200x200px|SAIB = off]]&lt;br /&gt;
|[[File:Cookingstyle2.png|miniatura|200x200px|SAIB = on]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Hires steps =&lt;br /&gt;
Questo parametro si riferisce ai &#039;&#039;&#039;passaggi aggiuntivi&#039;&#039;&#039; di elaborazione che vengono eseguiti per &#039;&#039;&#039;rifinire&#039;&#039;&#039; l&#039;immagine dopo la sua creazione iniziale. Aumentare l&#039;Hire ssteps può migliorare la qualità dell&#039;immagine, ma &#039;&#039;&#039;rallenterà&#039;&#039;&#039; anche il processo di generazione.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on, &#039;&#039;&#039;the steak is being cooked on a pan&#039;&#039;&#039;&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:CookingHS1.png|miniatura|200x200px|Hire steps = 0]]&lt;br /&gt;
|[[File:CookingHS3.png|miniatura|200x200px|Hire steps = 100]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
In questa sperimentazione si notano poche differenze fra un&#039;immagine e l&#039;altra; fra l&#039;assenza del parametro e il suo valore massimo. L&#039;unico difetto individuabile si trova nella prima immagine dove l&#039;uomo sta cercando di cuocere la carne senza una padella.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: SelfAttentionGuidance Integrated =&lt;br /&gt;
Questa tecnica è progettata per rendere il processo di generazione delle immagini &#039;&#039;&#039;più semplice e veloce&#039;&#039;&#039; per l&#039;utente, migliorando allo stesso tempo la &#039;&#039;&#039;qualità&#039;&#039;&#039; delle immagini prodotte. La funzionalità integrata della &amp;quot;self attention guidance&amp;quot; può aiutare a creare immagini che appaiono &#039;&#039;&#039;più realistiche&#039;&#039;&#039; e con oggetti &#039;&#039;&#039;meglio definiti&#039;&#039;&#039; senza che l&#039;utente debba effettuare configurazioni complesse o &#039;&#039;&#039;passaggi supplementari&#039;&#039;&#039;.&lt;br /&gt;
Il termine &amp;quot;&#039;&#039;&#039;Scale&#039;&#039;&#039;&amp;quot; si riferisce all&#039;intensità con cui la guida basata sull&#039;auto-attenzione viene applicata durante il processo di generazione. Una &amp;quot;Scale&amp;quot; maggiore implica &#039;&#039;&#039;un&#039;adesione più forte al prompt testuale&#039;&#039;&#039; e può portare a immagini più &#039;&#039;&#039;dettagliate e coerenti con l&#039;input&#039;&#039;&#039;, anche se potrebbe ridurre la diversità delle immagini generate.&lt;br /&gt;
Il parametro &amp;quot;&#039;&#039;&#039;Blur Sigma&#039;&#039;&#039;&amp;quot;, invece, è associato al &#039;&#039;&#039;grado di sfocatura&#039;&#039;&#039; che viene applicato alle regioni selezionate di un&#039;immagine. Questo processo agisce dove le aree con maggiore auto-attenzione — ovvero quelle parti dell&#039;immagine che il modello riconosce come più importanti o informative — vengono &#039;&#039;&#039;sfocate&#039;&#039;&#039; leggermente. L&#039;idea è che &#039;&#039;&#039;enfatizzando&#039;&#039;&#039; il lavoro del modello su queste aree sfocate, il modello può generare risultati migliori, perfezionando le parti &#039;&#039;&#039;più significative&#039;&#039;&#039; dell&#039;immagine e &#039;&#039;&#039;riducendo&#039;&#039;&#039; potenzialmente il &#039;&#039;&#039;rumore&#039;&#039;&#039; o i &#039;&#039;&#039;dettagli superflui&#039;&#039;&#039; nelle regioni meno importanti.&lt;br /&gt;
I valori di default sono i seguenti: &amp;lt;&amp;lt;&#039;&#039;&#039;Scale = 0,5&#039;&#039;&#039;&amp;gt;&amp;gt; - &amp;lt;&amp;lt;&#039;&#039;&#039;Blur sigma = 2&#039;&#039;&#039;&amp;gt;&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on, &#039;&#039;&#039;the steak is being cooked on a pan&#039;&#039;&#039;&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:SAG_none_-_default.jpg|miniatura|200x200px|Tecnica omessa e valori default]]&lt;br /&gt;
|[[File:SAG_Scale.jpg|miniatura|200x200px|SAG Scale (da sinistra): -2; 1; 5]]&lt;br /&gt;
|[[File:SAG_BS.jpg|miniatura|200x200px|SAG BS (da sinistra): 0,1; 5; 10]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Nella prima immagine si osserva il confronto tra l&#039;immagine generata senza la tecnica del SAG e quella generata con quest&#039;ultima. Si evidenzia come l&#039;immagine generata con la tecnica con valori impostati di default sia di qualità inferiore alla prima, suggerendo che bisogna regolare i parametri di &amp;quot;scale&amp;quot; e di &amp;quot;blur sigma&amp;quot;. Per quanto riguarda le immagini generate variando solo il parametro di scale, si nota come si ottengano dei pessimi risultati impostando dei valori sia troppo bassi che troppo alti, e che quindi sia necessario lavorare nei valori intermedi (i risultati cambiano in base alla complessità del prompt). Relativamente al parametro di Blur sigma, si notano poche differenze fra le tre immagini, benché ci siano errori evidenti sul modo in cui l&#039;uomo tenga in mano degli oggetti difficilmente identificabili, soprattutto nei valori &amp;quot;0,1&amp;quot; e &amp;quot;10&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
=Altri componenti=&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:altrefunzioni.png|miniatura|500x500px|Tecniche]]&lt;br /&gt;
|}&lt;br /&gt;
==&#039;&#039;&#039;ControlNet&#039;&#039;&#039;== &lt;br /&gt;
Un modello di &#039;&#039;&#039;rete neurale&#039;&#039;&#039; progettato per controllare i modelli di Stable Diffusion, fornendo agli utenti un &#039;&#039;&#039;controllo dettagliato&#039;&#039;&#039; sugli output dei modelli di diffusione nelle attività di generazione di testo in immagine. ControlNet è una struttura di rete neurale che consente &#039;&#039;&#039;l&#039;aggiunta di condizioni aggiuntive&#039;&#039;&#039; per influenzare l&#039;output dei modelli di diffusione. Queste condizioni possono assumere molte forme, come [[Edge maps]], [[Depth maps]], e [[Semantic segmentations]]. L&#039;uso di ControlNet su Stable Diffusion offre numerosi vantaggi. Consente un controllo preciso sulla semantica e sulle caratteristiche del contenuto generato, consentendo la generazione di output più &#039;&#039;&#039;accurati&#039;&#039;&#039; e &#039;&#039;&#039;personalizzati&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;DynamicThresholding (CFG-Fix)&#039;&#039;&#039;==  &lt;br /&gt;
è un &#039;&#039;&#039;filtro&#039;&#039;&#039; per migliorare le immagini. Aiuta a risolvere &#039;&#039;&#039;problemi di colore&#039;&#039;&#039; quando si usano &#039;&#039;&#039;impostazioni più alte&#039;&#039;&#039;. Queste ultime, si riferiscono a valori maggiori o livelli superiori, significa utilizzare valori più grandi per &#039;&#039;&#039;migliorare&#039;&#039;&#039; l’immagine. Ad esempio, se un’immagine è leggermente sbiadita e la si vuole rendere più nitida, è possibile aumentare determinati parametri. Tuttavia, a volte, quando si usano valori troppo alti, potrebbero verificarsi problemi di colore. Ecco dove entra in gioco CFG-Fix: risolve questi problemi di colore quando si utilizzano impostazioni elevate.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;FreeU&#039;&#039;&#039;== &lt;br /&gt;
Un componente aggiuntivo di Stable Diffusion che migliora la qualità dell&#039;immagine modificando il &#039;&#039;&#039;denoiser&#039;&#039;&#039; del modello. Il miglioramento avviene senza costi: nessun addestramento, nessun parametro aggiuntivo introdotto e nessun aumento della memoria o del tempo di campionamento.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A 25 year old mage, dress, full body, magic, lightning, rim light, moon, night&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra e utilizzo FreeU.&lt;br /&gt;
&lt;br /&gt;
[[File:maga.png|300px]] [[File:magaFreeU.png|300px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;HyperTile&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;metodo&#039;&#039;&#039; che ottimizza il livello di &#039;&#039;&#039;auto-attenzione&#039;&#039;&#039; all’interno dei modelli Stable-Diffusion. Questo porta a una &#039;&#039;&#039;riduzione del tempo di calcolo&#039;&#039;&#039; che varia da 1 a 4 volte, a seconda della &#039;&#039;&#039;risoluzione iniziale&#039;&#039;&#039;.&lt;br /&gt;
==&#039;&#039;&#039;Kohya HRFix&#039;&#039;&#039;== &lt;br /&gt;
è un’&#039;&#039;&#039;estensione&#039;&#039;&#039; utilizzata nei modelli Stable-Diffusion per migliorare la risoluzione delle immagini generate. Questa estensione è stata sviluppata da Kohya e ha lo scopo di &#039;&#039;&#039;limitare i problemi di clonazione/crollo&#039;&#039;&#039; nelle immagini ad alta risoluzione. Tuttavia, l’uso di Kohya HRFix può ridurre la varietà delle immagini generate, rendendole più identiche tra loro. Le impostazioni ottimali per Kohya HRFix possono variare a seconda delle esigenze specifiche dell’utente.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;LatentModifier&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;componente&#039;&#039;&#039; che &#039;&#039;&#039;modifica i valori latenti&#039;&#039;&#039; durante il &#039;&#039;&#039;processo di diffusione&#039;&#039;&#039; in un modello di generazione di immagini. Queste modifiche possono influenzare vari aspetti dell’immagine finale, come la &#039;&#039;&#039;nitidezza&#039;&#039;&#039;, il &#039;&#039;&#039;contrasto&#039;&#039;&#039; e il &#039;&#039;&#039;rumore&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A potrait of a white cat, cozy house&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra e utilizzo LatentModifier.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;MultiDiffusion&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;framework&#039;&#039;&#039; unificato che consente la generazione di immagini &#039;&#039;&#039;versatili&#039;&#039;&#039; e &#039;&#039;&#039;controllabili&#039;&#039;&#039;, utilizzando un modello di diffusione text-to-image pre-addestrato. Al centro dell’approccio c’è un nuovo processo di generazione, basato su un compito di &#039;&#039;&#039;ottimizzazione&#039;&#039;&#039; che lega insieme &#039;&#039;&#039;più processi&#039;&#039;&#039; di generazione di diffusione con un &#039;&#039;&#039;insieme condiviso di parametri o vincoli&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;Never OOM&#039;&#039;&#039;== &lt;br /&gt;
è un’&#039;&#039;&#039;opzione&#039;&#039;&#039; che permette di scaricare sempre i modelli dalla &#039;&#039;&#039;VRAM&#039;&#039;&#039;. Questo può essere utile se si utilizzano &#039;&#039;&#039;più software insieme&#039;&#039;&#039; e si desidera che Stable Diffusion utilizzi meno VRAM e ne dia &#039;&#039;&#039;una parte ad altri software&#039;&#039;&#039;, o quando si utilizzano vecchie estensioni che competono con la VRAM di Stable Diffusion. [[Category:strumento]]&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Txt2img_(Stable_Diffusion)&amp;diff=1517</id>
		<title>Txt2img (Stable Diffusion)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Txt2img_(Stable_Diffusion)&amp;diff=1517"/>
		<updated>2024-03-22T11:43:16Z</updated>

		<summary type="html">&lt;p&gt;Stefano: /* FreeU */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Txt2img è un tool di [[Stable Diffusion]] che, come intuibile, genera un&#039;immagine .png basata su un prompt testuale. Il suo ultimo aggiornamento risale al 28 Ottobre 2022.&lt;br /&gt;
&lt;br /&gt;
I parametri di Txt2img non verranno descritti con massimo dettaglio dal momento che la finalità di questa Wiki entry è di fornire delle linee guida comprovate da sperimentazione diretta.&lt;br /&gt;
&lt;br /&gt;
* Il primo obiettivo è ricondurre con praticità il livello di performance riscontrato nel modello alle relative combinazioni di parametri.&lt;br /&gt;
&lt;br /&gt;
* Il secondo obiettivo è creare collegamenti tra ciascun parametro e la corrispondente sezione dell&#039;architettura.&lt;br /&gt;
&lt;br /&gt;
= Link di approfondimento =&lt;br /&gt;
Nel caso si voglia approfondire i setting si può visitare il github relativo alla UI: [https://github.com/AUTOMATIC1111/stable-diffusion-webui]&lt;br /&gt;
&lt;br /&gt;
Nel caso si voglia approfondire l&#039;architettura generale si può visitare il repository: [https://github.com/Stability-AI/stablediffusion]&lt;br /&gt;
&lt;br /&gt;
= Overview dell&#039;interfaccia =&lt;br /&gt;
[[File:Overview_diffusion.png|700x700px]]&lt;br /&gt;
&lt;br /&gt;
* [[Sampling method (Stable Diffusion)|Sampling method]]&lt;br /&gt;
&lt;br /&gt;
* Sampling steps:&lt;br /&gt;
&lt;br /&gt;
-Tra l&#039;1 e i 15 step: l&#039;immagine è relativamente sfocata.&lt;br /&gt;
&lt;br /&gt;
-Tra i 15 e i 25 step: L&#039;immagine è abbastanza chiara e di buona qualità.&lt;br /&gt;
&lt;br /&gt;
-Tra i 25 e i 45: La qualità dell&#039;immagine è molto alta e comprende la texture.&lt;br /&gt;
&lt;br /&gt;
-Dai 45 in poi: La loss function si stabilizza e si osserva una variazione minima nella risoluzione.&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:Sampling step 5.png|miniatura|5 step]]&lt;br /&gt;
![[File:10 step.png|miniatura|10 step]]&lt;br /&gt;
![[File:15 step.png|miniatura|15 step]]&lt;br /&gt;
|}&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:25 step.png|miniatura|25 step]]&lt;br /&gt;
![[File:40 step.png|miniatura|40 step]]&lt;br /&gt;
![[File:60 step.png|miniatura|60 step]]&lt;br /&gt;
|}&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:1 step.png|miniatura|1 step]]&lt;br /&gt;
![[File:150 step.png|miniatura|150 step]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
====== Upscaler: ======&lt;br /&gt;
L&#039;upscaling è il processo di aumentare la risoluzione di un&#039;immagine, cioè di ingrandirla, mantenendo al contempo la qualità visiva il più alta possibile e può essere ottenuto mediante algoritmi di interpolazione e tecniche avanzate di elaborazione delle immagini, che aggiungono dettagli artificiali per migliorare l&#039;aspetto dell&#039;immagine.&lt;br /&gt;
&lt;br /&gt;
- Hires Steps: migliorano la qualità dell&#039;immagine attraverso iterazioni aggiuntive durante il processo di generazione&lt;br /&gt;
&lt;br /&gt;
- Denoising strenght&lt;br /&gt;
&lt;br /&gt;
- Upscale by: L&#039;upscale di solito avviene dopo che l&#039;immagine è stata completamente generata. L&#039;immagine viene resa più grande senza perdere significativamente in qualità o dettaglio. Si esprime come un multiplier delle dimensioni dell&#039;immagine generata, da 1 a 4.&lt;br /&gt;
&lt;br /&gt;
* Width/Height: Dimensioni&lt;br /&gt;
&lt;br /&gt;
* Batch count: il numero di gruppi in cui i dati vengono divisi durante l&#039;elaborazione. Più batch count può significare una maggiore divisione dei dati durante il processo.&lt;br /&gt;
&lt;br /&gt;
* Batch size: quanti dati vengono elaborati contemporaneamente in ciascun gruppo. Un batch size più grande può accelerare il processo ma richiedere più memoria, mentre un batch size più piccolo può richiedere più tempo ma portare a risultati più precisi.&lt;br /&gt;
&lt;br /&gt;
* CFG Scale (Classifier Free Guidance Scale)&lt;br /&gt;
&lt;br /&gt;
* Seed: Un numero che inizializza il generatore di numeri casuali. Utilizzare lo stesso seed con gli stessi parametri di input produrrà sempre la stessa immagine. È utile per la riproducibilità o per fare piccoli aggiustamenti su un&#039;immagine esistente.&lt;br /&gt;
=Tecniche=&lt;br /&gt;
*[[TextualInversion]]&lt;br /&gt;
*[[Hypernetworks]]&lt;br /&gt;
*[[LoRA]]&lt;br /&gt;
&lt;br /&gt;
= Sperimentazioni =&lt;br /&gt;
Per effettuare un&#039;analisi bilanciata utilizzeremo gli stessi due metri di giudizio per valutare gli output:&lt;br /&gt;
&lt;br /&gt;
* Inception Score&lt;br /&gt;
* Visual Inspection by GPT4&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Denoising Strength =&lt;br /&gt;
Questo parametro si riferisce all&#039;intensità della &#039;&#039;&#039;riduzione del rumore&#039;&#039;&#039; applicata a un&#039;immagine. Il &amp;quot;rumore&amp;quot; è il termine usato per descrivere &#039;&#039;&#039;variazioni casuali e non desiderate&#039;&#039;&#039; nei livelli di luminosità o colore di un&#039;immagine, che possono renderla &#039;&#039;&#039;granulosa&#039;&#039;&#039; o &#039;&#039;&#039;offuscata&#039;&#039;&#039; e possono distorcere i dettagli.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
(Le sperimentazioni iniziano dopo il valore 0, poiché non si sta fornendo al modello l&#039;opportunità di &amp;quot;pulire&amp;quot; o trasformare il rumore in un&#039;immagine coerente basata sul prompt fornito)&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:Cooking_1.png|miniatura|200x200px|Denoising Strength = 0,1]]&lt;br /&gt;
|[[File:Cooking_2.png|miniatura|200x200px|Denoising Strength = 0,3]]&lt;br /&gt;
|[[File:Cooking_3.png|miniatura|200x200px|Denoising Strength = 0,7]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Impostando il Denoising Strenght a &amp;quot;0,1&amp;quot;, si nota un&#039;elevata quantità di rumore che rende indefiniti sia i dettagli che le sagome degli elementi a schermo. Aumentando de facto il valore del parametro si può osservare nettamente la differenza e l&#039;efficacia fra il valore intermedio (0,3) e quello iniziale, fino ad arrivare ad una qualità più che sufficiente impostando il parametro a &amp;quot;0,7&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
==Visual inspection by ChatGPT4==&lt;br /&gt;
Qui di seguito ci sarà una descrizione di ChatGPT4 sulla qualità delle immagini, in modo da comprendere se il modello riesca a individuare rumore e artefatti.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;&amp;lt;Le tre immagini mostrano una sequenza di azioni in una cucina, con un uomo che sembra impegnato nella preparazione di un piatto di carne. Nella prima immagine, il cuoco sta flambando la carne, creando un effetto visivo spettacolare con le fiamme che si alzano dalla padella. Nella seconda, appare concentrato nel girare o condire la carne, mentre nella terza è intento a cucinare, forse verificando la cottura o aggiungendo altri ingredienti.&lt;br /&gt;
Ogni immagine ha una qualità elevata, con dettagli nitidi e colori vivaci che catturano bene la scena della cucina. L&#039;illuminazione è ben gestita, evidenziando le azioni del cuoco e dando vita agli alimenti in preparazione. La composizione è dinamica e sembra che ci sia stata attenzione nel posizionare ogni elemento per creare una scena armoniosa che guida l&#039;occhio verso il soggetto principale senza distrazioni superflue.&lt;br /&gt;
Non si notano artefatti che suggeriscono una manipolazione digitale e le immagini trasmettono un senso di autenticità e professionalità. Ciò suggerisce che probabilmente sono state scattate durante una vera sessione di cucina e che fanno parte di una serie tematica ben pianificata. In sintesi, si tratta di una rappresentazione coerente e accattivante del processo culinario in azione.&amp;gt;&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dalla descrizione fornita, si nota come ChatGPT4 non riesca ad individuare le differenze sostanziali presenti fra le tre immagini, dimostrando comunque la capacità di saper descrivere il contesto in modo eccellente.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: CFG Scale =&lt;br /&gt;
Questo parametro controlla quanto fedelmente il processo di generazione delle immagini &#039;&#039;&#039;segue&#039;&#039;&#039; il prompt di testo fornito. Un valore più alto del CFG Scale significa che l&#039;immagine generata sarà più &#039;&#039;&#039;aderente&#039;&#039;&#039; al testo di input, ossia seguirà più strettamente le indicazioni date. In contrasto, un valore più basso dà al modello più libertà di &#039;&#039;&#039;inventare&#039;&#039;&#039; o di essere &#039;&#039;&#039;creativo&#039;&#039;&#039;, portando a risultati che possono &#039;&#039;&#039;deviare&#039;&#039;&#039; di più dal prompt originale.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:CookingCFG2.png|miniatura|200x200px|CFG = 1]]&lt;br /&gt;
|[[File:CookingCFG1.png|miniatura|200x200px|CFG = 3]]&lt;br /&gt;
|[[File:Cooking_3.png|miniatura|200x200px|CFG = 15]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Impostando il parametro al suo valore minimo si nota come il modello segua ben poco il prompt fornito. Viene presentato un ragazzo e non un uomo, situato in un posto che ricorda appena una cucina, mentre sta cucinando del cibo che ricorda vagamente la carne. Con un valore pari a &amp;quot;3&amp;quot;, il setting è già interamente riconoscibile. In questo caso sono solo le azioni che vengono rappresentate a schermo ad essere poco chiare, poiché si nota un uomo che ha messo una fetta di carne in un forno a legna. L&#039;ultima immagine mostra un contesto totalmente credibile: sia l&#039;ambiente che le azioni sono coerenti con il prompt fornito, benché gli unici difetti facilmente visibili sono gli oggetti che l&#039;uomo tiene in mano per cucinare, essendo poco definiti.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Share Attention in Batch =&lt;br /&gt;
Il parametro &amp;quot;&#039;&#039;&#039;Share attention in batch&#039;&#039;&#039;&amp;quot; è una funzionalità dove l&#039;attenzione del modello, ovvero la parte che il modello &amp;quot;considera&amp;quot; più importante durante la generazione dell&#039;immagine, viene &#039;&#039;&#039;condivisa&#039;&#039;&#039; o &#039;&#039;&#039;sincronizzata&#039;&#039;&#039; tra le immagini in un batch. Quando si generano &#039;&#039;&#039;più immagini contemporaneamente (un batch)&#039;&#039;&#039;, questo parametro fa in modo che tutte le immagini nel batch diano priorità a parti simili dell&#039;input, o che le caratteristiche stilistiche siano &#039;&#039;&#039;coerenti&#039;&#039;&#039; tra di loro. Per esempio, se si stanno generando immagini di volti e si vuole che l&#039;attenzione sia focalizzata sugli occhi per tutti i volti nel batch, attivare questa opzione potrebbe aiutare a garantire che tutti i volti generati abbiano occhi ben definiti e uno stile simile. Questo può essere particolarmente utile quando l&#039;obiettivo è creare una serie di immagini che devono essere visivamente coerenti l&#039;una con l&#039;altra.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:Cookingstyle1.png|miniatura|200x200px|SAIB = off]]&lt;br /&gt;
|[[File:Cookingstyle2.png|miniatura|200x200px|SAIB = on]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Hires steps =&lt;br /&gt;
Questo parametro si riferisce ai &#039;&#039;&#039;passaggi aggiuntivi&#039;&#039;&#039; di elaborazione che vengono eseguiti per &#039;&#039;&#039;rifinire&#039;&#039;&#039; l&#039;immagine dopo la sua creazione iniziale. Aumentare l&#039;Hire ssteps può migliorare la qualità dell&#039;immagine, ma &#039;&#039;&#039;rallenterà&#039;&#039;&#039; anche il processo di generazione.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on, &#039;&#039;&#039;the steak is being cooked on a pan&#039;&#039;&#039;&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:CookingHS1.png|miniatura|200x200px|Hire steps = 0]]&lt;br /&gt;
|[[File:CookingHS3.png|miniatura|200x200px|Hire steps = 100]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
In questa sperimentazione si notano poche differenze fra un&#039;immagine e l&#039;altra; fra l&#039;assenza del parametro e il suo valore massimo. L&#039;unico difetto individuabile si trova nella prima immagine dove l&#039;uomo sta cercando di cuocere la carne senza una padella.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: SelfAttentionGuidance Integrated =&lt;br /&gt;
Questa tecnica è progettata per rendere il processo di generazione delle immagini &#039;&#039;&#039;più semplice e veloce&#039;&#039;&#039; per l&#039;utente, migliorando allo stesso tempo la &#039;&#039;&#039;qualità&#039;&#039;&#039; delle immagini prodotte. La funzionalità integrata della &amp;quot;self attention guidance&amp;quot; può aiutare a creare immagini che appaiono &#039;&#039;&#039;più realistiche&#039;&#039;&#039; e con oggetti &#039;&#039;&#039;meglio definiti&#039;&#039;&#039; senza che l&#039;utente debba effettuare configurazioni complesse o &#039;&#039;&#039;passaggi supplementari&#039;&#039;&#039;.&lt;br /&gt;
Il termine &amp;quot;&#039;&#039;&#039;Scale&#039;&#039;&#039;&amp;quot; si riferisce all&#039;intensità con cui la guida basata sull&#039;auto-attenzione viene applicata durante il processo di generazione. Una &amp;quot;Scale&amp;quot; maggiore implica &#039;&#039;&#039;un&#039;adesione più forte al prompt testuale&#039;&#039;&#039; e può portare a immagini più &#039;&#039;&#039;dettagliate e coerenti con l&#039;input&#039;&#039;&#039;, anche se potrebbe ridurre la diversità delle immagini generate.&lt;br /&gt;
Il parametro &amp;quot;&#039;&#039;&#039;Blur Sigma&#039;&#039;&#039;&amp;quot;, invece, è associato al &#039;&#039;&#039;grado di sfocatura&#039;&#039;&#039; che viene applicato alle regioni selezionate di un&#039;immagine. Questo processo agisce dove le aree con maggiore auto-attenzione — ovvero quelle parti dell&#039;immagine che il modello riconosce come più importanti o informative — vengono &#039;&#039;&#039;sfocate&#039;&#039;&#039; leggermente. L&#039;idea è che &#039;&#039;&#039;enfatizzando&#039;&#039;&#039; il lavoro del modello su queste aree sfocate, il modello può generare risultati migliori, perfezionando le parti &#039;&#039;&#039;più significative&#039;&#039;&#039; dell&#039;immagine e &#039;&#039;&#039;riducendo&#039;&#039;&#039; potenzialmente il &#039;&#039;&#039;rumore&#039;&#039;&#039; o i &#039;&#039;&#039;dettagli superflui&#039;&#039;&#039; nelle regioni meno importanti.&lt;br /&gt;
I valori di default sono i seguenti: &amp;lt;&amp;lt;&#039;&#039;&#039;Scale = 0,5&#039;&#039;&#039;&amp;gt;&amp;gt; - &amp;lt;&amp;lt;&#039;&#039;&#039;Blur sigma = 2&#039;&#039;&#039;&amp;gt;&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on, &#039;&#039;&#039;the steak is being cooked on a pan&#039;&#039;&#039;&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:SAG_none_-_default.jpg|miniatura|200x200px|Tecnica omessa e valori default]]&lt;br /&gt;
|[[File:SAG_Scale.jpg|miniatura|200x200px|SAG Scale (da sinistra): -2; 1; 5]]&lt;br /&gt;
|[[File:SAG_BS.jpg|miniatura|200x200px|SAG BS (da sinistra): 0,1; 5; 10]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Nella prima immagine si osserva il confronto tra l&#039;immagine generata senza la tecnica del SAG e quella generata con quest&#039;ultima. Si evidenzia come l&#039;immagine generata con la tecnica con valori impostati di default sia di qualità inferiore alla prima, suggerendo che bisogna regolare i parametri di &amp;quot;scale&amp;quot; e di &amp;quot;blur sigma&amp;quot;. Per quanto riguarda le immagini generate variando solo il parametro di scale, si nota come si ottengano dei pessimi risultati impostando dei valori sia troppo bassi che troppo alti, e che quindi sia necessario lavorare nei valori intermedi (i risultati cambiano in base alla complessità del prompt). Relativamente al parametro di Blur sigma, si notano poche differenze fra le tre immagini, benché ci siano errori evidenti sul modo in cui l&#039;uomo tenga in mano degli oggetti difficilmente identificabili, soprattutto nei valori &amp;quot;0,1&amp;quot; e &amp;quot;10&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
=Altri componenti=&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:altrefunzioni.png|miniatura|500x500px|Tecniche]]&lt;br /&gt;
|}&lt;br /&gt;
==&#039;&#039;&#039;ControlNet&#039;&#039;&#039;== &lt;br /&gt;
Un modello di &#039;&#039;&#039;rete neurale&#039;&#039;&#039; progettato per controllare i modelli di Stable Diffusion, fornendo agli utenti un &#039;&#039;&#039;controllo dettagliato&#039;&#039;&#039; sugli output dei modelli di diffusione nelle attività di generazione di testo in immagine. ControlNet è una struttura di rete neurale che consente &#039;&#039;&#039;l&#039;aggiunta di condizioni aggiuntive&#039;&#039;&#039; per influenzare l&#039;output dei modelli di diffusione. Queste condizioni possono assumere molte forme, come [[Edge maps]], [[Depth maps]], e [[Semantic segmentations]]. L&#039;uso di ControlNet su Stable Diffusion offre numerosi vantaggi. Consente un controllo preciso sulla semantica e sulle caratteristiche del contenuto generato, consentendo la generazione di output più &#039;&#039;&#039;accurati&#039;&#039;&#039; e &#039;&#039;&#039;personalizzati&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;DynamicThresholding (CFG-Fix)&#039;&#039;&#039;==  &lt;br /&gt;
è un &#039;&#039;&#039;filtro&#039;&#039;&#039; per migliorare le immagini. Aiuta a risolvere &#039;&#039;&#039;problemi di colore&#039;&#039;&#039; quando si usano &#039;&#039;&#039;impostazioni più alte&#039;&#039;&#039;. Queste ultime, si riferiscono a valori maggiori o livelli superiori, significa utilizzare valori più grandi per &#039;&#039;&#039;migliorare&#039;&#039;&#039; l’immagine. Ad esempio, se un’immagine è leggermente sbiadita e la si vuole rendere più nitida, è possibile aumentare determinati parametri. Tuttavia, a volte, quando si usano valori troppo alti, potrebbero verificarsi problemi di colore. Ecco dove entra in gioco CFG-Fix: risolve questi problemi di colore quando si utilizzano impostazioni elevate.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;FreeU&#039;&#039;&#039;== &lt;br /&gt;
Un componente aggiuntivo di Stable Diffusion che migliora la qualità dell&#039;immagine modificando il &#039;&#039;&#039;denoiser&#039;&#039;&#039; del modello. Il miglioramento avviene senza costi: nessun addestramento, nessun parametro aggiuntivo introdotto e nessun aumento della memoria o del tempo di campionamento.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompt: A 25 year old mage, dress, full body, magic, lightning, rim light, moon, night&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
(Da sinistra) Generazione neutra e utilizzo FreeU.&lt;br /&gt;
&lt;br /&gt;
[[File:maga.png|300px]] [[File:magaFreeU.png|300px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;HyperTile&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;metodo&#039;&#039;&#039; che ottimizza il livello di &#039;&#039;&#039;auto-attenzione&#039;&#039;&#039; all’interno dei modelli Stable-Diffusion. Questo porta a una &#039;&#039;&#039;riduzione del tempo di calcolo&#039;&#039;&#039; che varia da 1 a 4 volte, a seconda della &#039;&#039;&#039;risoluzione iniziale&#039;&#039;&#039;.&lt;br /&gt;
==&#039;&#039;&#039;Kohya HRFix&#039;&#039;&#039;== &lt;br /&gt;
è un’&#039;&#039;&#039;estensione&#039;&#039;&#039; utilizzata nei modelli Stable-Diffusion per migliorare la risoluzione delle immagini generate. Questa estensione è stata sviluppata da Kohya e ha lo scopo di &#039;&#039;&#039;limitare i problemi di clonazione/crollo&#039;&#039;&#039; nelle immagini ad alta risoluzione. Tuttavia, l’uso di Kohya HRFix può ridurre la varietà delle immagini generate, rendendole più identiche tra loro. Le impostazioni ottimali per Kohya HRFix possono variare a seconda delle esigenze specifiche dell’utente.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;LatentModifier&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;componente&#039;&#039;&#039; che &#039;&#039;&#039;modifica i valori latenti&#039;&#039;&#039; durante il &#039;&#039;&#039;processo di diffusione&#039;&#039;&#039; in un modello di generazione di immagini. Queste modifiche possono influenzare vari aspetti dell’immagine finale, come la &#039;&#039;&#039;nitidezza&#039;&#039;&#039;, il &#039;&#039;&#039;contrasto&#039;&#039;&#039; e il &#039;&#039;&#039;rumore&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;MultiDiffusion&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;framework&#039;&#039;&#039; unificato che consente la generazione di immagini &#039;&#039;&#039;versatili&#039;&#039;&#039; e &#039;&#039;&#039;controllabili&#039;&#039;&#039;, utilizzando un modello di diffusione text-to-image pre-addestrato. Al centro dell’approccio c’è un nuovo processo di generazione, basato su un compito di &#039;&#039;&#039;ottimizzazione&#039;&#039;&#039; che lega insieme &#039;&#039;&#039;più processi&#039;&#039;&#039; di generazione di diffusione con un &#039;&#039;&#039;insieme condiviso di parametri o vincoli&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;Never OOM&#039;&#039;&#039;== &lt;br /&gt;
è un’&#039;&#039;&#039;opzione&#039;&#039;&#039; che permette di scaricare sempre i modelli dalla &#039;&#039;&#039;VRAM&#039;&#039;&#039;. Questo può essere utile se si utilizzano &#039;&#039;&#039;più software insieme&#039;&#039;&#039; e si desidera che Stable Diffusion utilizzi meno VRAM e ne dia &#039;&#039;&#039;una parte ad altri software&#039;&#039;&#039;, o quando si utilizzano vecchie estensioni che competono con la VRAM di Stable Diffusion. [[Category:strumento]]&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=File:Latentgatto.png&amp;diff=1514</id>
		<title>File:Latentgatto.png</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=File:Latentgatto.png&amp;diff=1514"/>
		<updated>2024-03-22T11:35:57Z</updated>

		<summary type="html">&lt;p&gt;Stefano: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=File:Gattobianco1.png&amp;diff=1513</id>
		<title>File:Gattobianco1.png</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=File:Gattobianco1.png&amp;diff=1513"/>
		<updated>2024-03-22T11:35:39Z</updated>

		<summary type="html">&lt;p&gt;Stefano: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=File:MagaFreeU.png&amp;diff=1512</id>
		<title>File:MagaFreeU.png</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=File:MagaFreeU.png&amp;diff=1512"/>
		<updated>2024-03-22T11:35:18Z</updated>

		<summary type="html">&lt;p&gt;Stefano: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=File:Maga.png&amp;diff=1511</id>
		<title>File:Maga.png</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=File:Maga.png&amp;diff=1511"/>
		<updated>2024-03-22T11:34:57Z</updated>

		<summary type="html">&lt;p&gt;Stefano: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=File:Uomopasta2.png&amp;diff=1510</id>
		<title>File:Uomopasta2.png</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=File:Uomopasta2.png&amp;diff=1510"/>
		<updated>2024-03-22T11:34:37Z</updated>

		<summary type="html">&lt;p&gt;Stefano: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=File:Uomopasta1.png&amp;diff=1509</id>
		<title>File:Uomopasta1.png</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=File:Uomopasta1.png&amp;diff=1509"/>
		<updated>2024-03-22T11:34:24Z</updated>

		<summary type="html">&lt;p&gt;Stefano: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Txt2img_(Stable_Diffusion)&amp;diff=1505</id>
		<title>Txt2img (Stable Diffusion)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Txt2img_(Stable_Diffusion)&amp;diff=1505"/>
		<updated>2024-03-22T11:21:51Z</updated>

		<summary type="html">&lt;p&gt;Stefano: /* Altri componenti */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Txt2img è un tool di [[Stable Diffusion]] che, come intuibile, genera un&#039;immagine .png basata su un prompt testuale. Il suo ultimo aggiornamento risale al 28 Ottobre 2022.&lt;br /&gt;
&lt;br /&gt;
I parametri di Txt2img non verranno descritti con massimo dettaglio dal momento che la finalità di questa Wiki entry è di fornire delle linee guida comprovate da sperimentazione diretta.&lt;br /&gt;
&lt;br /&gt;
* Il primo obiettivo è ricondurre con praticità il livello di performance riscontrato nel modello alle relative combinazioni di parametri.&lt;br /&gt;
&lt;br /&gt;
* Il secondo obiettivo è creare collegamenti tra ciascun parametro e la corrispondente sezione dell&#039;architettura.&lt;br /&gt;
&lt;br /&gt;
= Link di approfondimento =&lt;br /&gt;
Nel caso si voglia approfondire i setting si può visitare il github relativo alla UI: [https://github.com/AUTOMATIC1111/stable-diffusion-webui]&lt;br /&gt;
&lt;br /&gt;
Nel caso si voglia approfondire l&#039;architettura generale si può visitare il repository: [https://github.com/Stability-AI/stablediffusion]&lt;br /&gt;
&lt;br /&gt;
= Overview dell&#039;interfaccia =&lt;br /&gt;
[[File:Overview_diffusion.png|700x700px]]&lt;br /&gt;
&lt;br /&gt;
* [[Sampling method (Stable Diffusion)|Sampling method]]&lt;br /&gt;
&lt;br /&gt;
* Sampling steps:&lt;br /&gt;
&lt;br /&gt;
-Tra l&#039;1 e i 15 step: l&#039;immagine è relativamente sfocata.&lt;br /&gt;
&lt;br /&gt;
-Tra i 15 e i 25 step: L&#039;immagine è abbastanza chiara e di buona qualità.&lt;br /&gt;
&lt;br /&gt;
-Tra i 25 e i 45: La qualità dell&#039;immagine è molto alta e comprende la texture.&lt;br /&gt;
&lt;br /&gt;
-Dai 45 in poi: La loss function si stabilizza e si osserva una variazione minima nella risoluzione.&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:Sampling step 5.png|miniatura|5 step]]&lt;br /&gt;
![[File:10 step.png|miniatura|10 step]]&lt;br /&gt;
![[File:15 step.png|miniatura|15 step]]&lt;br /&gt;
|}&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:25 step.png|miniatura|25 step]]&lt;br /&gt;
![[File:40 step.png|miniatura|40 step]]&lt;br /&gt;
![[File:60 step.png|miniatura|60 step]]&lt;br /&gt;
|}&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
![[File:1 step.png|miniatura|1 step]]&lt;br /&gt;
![[File:150 step.png|miniatura|150 step]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
====== Upscaler: ======&lt;br /&gt;
L&#039;upscaling è il processo di aumentare la risoluzione di un&#039;immagine, cioè di ingrandirla, mantenendo al contempo la qualità visiva il più alta possibile e può essere ottenuto mediante algoritmi di interpolazione e tecniche avanzate di elaborazione delle immagini, che aggiungono dettagli artificiali per migliorare l&#039;aspetto dell&#039;immagine.&lt;br /&gt;
&lt;br /&gt;
- Hires Steps: migliorano la qualità dell&#039;immagine attraverso iterazioni aggiuntive durante il processo di generazione&lt;br /&gt;
&lt;br /&gt;
- Denoising strenght&lt;br /&gt;
&lt;br /&gt;
- Upscale by: L&#039;upscale di solito avviene dopo che l&#039;immagine è stata completamente generata. L&#039;immagine viene resa più grande senza perdere significativamente in qualità o dettaglio. Si esprime come un multiplier delle dimensioni dell&#039;immagine generata, da 1 a 4.&lt;br /&gt;
&lt;br /&gt;
* Width/Height: Dimensioni&lt;br /&gt;
&lt;br /&gt;
* Batch count: il numero di gruppi in cui i dati vengono divisi durante l&#039;elaborazione. Più batch count può significare una maggiore divisione dei dati durante il processo.&lt;br /&gt;
&lt;br /&gt;
* Batch size: quanti dati vengono elaborati contemporaneamente in ciascun gruppo. Un batch size più grande può accelerare il processo ma richiedere più memoria, mentre un batch size più piccolo può richiedere più tempo ma portare a risultati più precisi.&lt;br /&gt;
&lt;br /&gt;
* CFG Scale (Classifier Free Guidance Scale)&lt;br /&gt;
&lt;br /&gt;
* Seed: Un numero che inizializza il generatore di numeri casuali. Utilizzare lo stesso seed con gli stessi parametri di input produrrà sempre la stessa immagine. È utile per la riproducibilità o per fare piccoli aggiustamenti su un&#039;immagine esistente.&lt;br /&gt;
=Tecniche=&lt;br /&gt;
*[[TextualInversion]]&lt;br /&gt;
*[[Hypernetworks]]&lt;br /&gt;
*[[LoRA]]&lt;br /&gt;
&lt;br /&gt;
= Sperimentazioni =&lt;br /&gt;
Per effettuare un&#039;analisi bilanciata utilizzeremo gli stessi due metri di giudizio per valutare gli output:&lt;br /&gt;
&lt;br /&gt;
* Inception Score&lt;br /&gt;
* Visual Inspection by GPT4&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Denoising Strength =&lt;br /&gt;
Questo parametro si riferisce all&#039;intensità della &#039;&#039;&#039;riduzione del rumore&#039;&#039;&#039; applicata a un&#039;immagine. Il &amp;quot;rumore&amp;quot; è il termine usato per descrivere &#039;&#039;&#039;variazioni casuali e non desiderate&#039;&#039;&#039; nei livelli di luminosità o colore di un&#039;immagine, che possono renderla &#039;&#039;&#039;granulosa&#039;&#039;&#039; o &#039;&#039;&#039;offuscata&#039;&#039;&#039; e possono distorcere i dettagli.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
(Le sperimentazioni iniziano dopo il valore 0, poiché non si sta fornendo al modello l&#039;opportunità di &amp;quot;pulire&amp;quot; o trasformare il rumore in un&#039;immagine coerente basata sul prompt fornito)&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:Cooking_1.png|miniatura|200x200px|Denoising Strength = 0,1]]&lt;br /&gt;
|[[File:Cooking_2.png|miniatura|200x200px|Denoising Strength = 0,3]]&lt;br /&gt;
|[[File:Cooking_3.png|miniatura|200x200px|Denoising Strength = 0,7]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Impostando il Denoising Strenght a &amp;quot;0,1&amp;quot;, si nota un&#039;elevata quantità di rumore che rende indefiniti sia i dettagli che le sagome degli elementi a schermo. Aumentando de facto il valore del parametro si può osservare nettamente la differenza e l&#039;efficacia fra il valore intermedio (0,3) e quello iniziale, fino ad arrivare ad una qualità più che sufficiente impostando il parametro a &amp;quot;0,7&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
==Visual inspection by ChatGPT4==&lt;br /&gt;
Qui di seguito ci sarà una descrizione di ChatGPT4 sulla qualità delle immagini, in modo da comprendere se il modello riesca a individuare rumore e artefatti.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;&amp;lt;Le tre immagini mostrano una sequenza di azioni in una cucina, con un uomo che sembra impegnato nella preparazione di un piatto di carne. Nella prima immagine, il cuoco sta flambando la carne, creando un effetto visivo spettacolare con le fiamme che si alzano dalla padella. Nella seconda, appare concentrato nel girare o condire la carne, mentre nella terza è intento a cucinare, forse verificando la cottura o aggiungendo altri ingredienti.&lt;br /&gt;
Ogni immagine ha una qualità elevata, con dettagli nitidi e colori vivaci che catturano bene la scena della cucina. L&#039;illuminazione è ben gestita, evidenziando le azioni del cuoco e dando vita agli alimenti in preparazione. La composizione è dinamica e sembra che ci sia stata attenzione nel posizionare ogni elemento per creare una scena armoniosa che guida l&#039;occhio verso il soggetto principale senza distrazioni superflue.&lt;br /&gt;
Non si notano artefatti che suggeriscono una manipolazione digitale e le immagini trasmettono un senso di autenticità e professionalità. Ciò suggerisce che probabilmente sono state scattate durante una vera sessione di cucina e che fanno parte di una serie tematica ben pianificata. In sintesi, si tratta di una rappresentazione coerente e accattivante del processo culinario in azione.&amp;gt;&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dalla descrizione fornita, si nota come ChatGPT4 non riesca ad individuare le differenze sostanziali presenti fra le tre immagini, dimostrando comunque la capacità di saper descrivere il contesto in modo eccellente.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: CFG Scale =&lt;br /&gt;
Questo parametro controlla quanto fedelmente il processo di generazione delle immagini &#039;&#039;&#039;segue&#039;&#039;&#039; il prompt di testo fornito. Un valore più alto del CFG Scale significa che l&#039;immagine generata sarà più &#039;&#039;&#039;aderente&#039;&#039;&#039; al testo di input, ossia seguirà più strettamente le indicazioni date. In contrasto, un valore più basso dà al modello più libertà di &#039;&#039;&#039;inventare&#039;&#039;&#039; o di essere &#039;&#039;&#039;creativo&#039;&#039;&#039;, portando a risultati che possono &#039;&#039;&#039;deviare&#039;&#039;&#039; di più dal prompt originale.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:CookingCFG2.png|miniatura|200x200px|CFG = 1]]&lt;br /&gt;
|[[File:CookingCFG1.png|miniatura|200x200px|CFG = 3]]&lt;br /&gt;
|[[File:Cooking_3.png|miniatura|200x200px|CFG = 15]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Impostando il parametro al suo valore minimo si nota come il modello segua ben poco il prompt fornito. Viene presentato un ragazzo e non un uomo, situato in un posto che ricorda appena una cucina, mentre sta cucinando del cibo che ricorda vagamente la carne. Con un valore pari a &amp;quot;3&amp;quot;, il setting è già interamente riconoscibile. In questo caso sono solo le azioni che vengono rappresentate a schermo ad essere poco chiare, poiché si nota un uomo che ha messo una fetta di carne in un forno a legna. L&#039;ultima immagine mostra un contesto totalmente credibile: sia l&#039;ambiente che le azioni sono coerenti con il prompt fornito, benché gli unici difetti facilmente visibili sono gli oggetti che l&#039;uomo tiene in mano per cucinare, essendo poco definiti.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Share Attention in Batch =&lt;br /&gt;
Il parametro &amp;quot;&#039;&#039;&#039;Share attention in batch&#039;&#039;&#039;&amp;quot; è una funzionalità dove l&#039;attenzione del modello, ovvero la parte che il modello &amp;quot;considera&amp;quot; più importante durante la generazione dell&#039;immagine, viene &#039;&#039;&#039;condivisa&#039;&#039;&#039; o &#039;&#039;&#039;sincronizzata&#039;&#039;&#039; tra le immagini in un batch. Quando si generano &#039;&#039;&#039;più immagini contemporaneamente (un batch)&#039;&#039;&#039;, questo parametro fa in modo che tutte le immagini nel batch diano priorità a parti simili dell&#039;input, o che le caratteristiche stilistiche siano &#039;&#039;&#039;coerenti&#039;&#039;&#039; tra di loro. Per esempio, se si stanno generando immagini di volti e si vuole che l&#039;attenzione sia focalizzata sugli occhi per tutti i volti nel batch, attivare questa opzione potrebbe aiutare a garantire che tutti i volti generati abbiano occhi ben definiti e uno stile simile. Questo può essere particolarmente utile quando l&#039;obiettivo è creare una serie di immagini che devono essere visivamente coerenti l&#039;una con l&#039;altra.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:Cookingstyle1.png|miniatura|200x200px|SAIB = off]]&lt;br /&gt;
|[[File:Cookingstyle2.png|miniatura|200x200px|SAIB = on]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: Hires steps =&lt;br /&gt;
Questo parametro si riferisce ai &#039;&#039;&#039;passaggi aggiuntivi&#039;&#039;&#039; di elaborazione che vengono eseguiti per &#039;&#039;&#039;rifinire&#039;&#039;&#039; l&#039;immagine dopo la sua creazione iniziale. Aumentare l&#039;Hire ssteps può migliorare la qualità dell&#039;immagine, ma &#039;&#039;&#039;rallenterà&#039;&#039;&#039; anche il processo di generazione.&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on, &#039;&#039;&#039;the steak is being cooked on a pan&#039;&#039;&#039;&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:CookingHS1.png|miniatura|200x200px|Hire steps = 0]]&lt;br /&gt;
|[[File:CookingHS3.png|miniatura|200x200px|Hire steps = 100]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
In questa sperimentazione si notano poche differenze fra un&#039;immagine e l&#039;altra; fra l&#039;assenza del parametro e il suo valore massimo. L&#039;unico difetto individuabile si trova nella prima immagine dove l&#039;uomo sta cercando di cuocere la carne senza una padella.&lt;br /&gt;
&lt;br /&gt;
= Sperimentazione: SelfAttentionGuidance Integrated =&lt;br /&gt;
Questa tecnica è progettata per rendere il processo di generazione delle immagini &#039;&#039;&#039;più semplice e veloce&#039;&#039;&#039; per l&#039;utente, migliorando allo stesso tempo la &#039;&#039;&#039;qualità&#039;&#039;&#039; delle immagini prodotte. La funzionalità integrata della &amp;quot;self attention guidance&amp;quot; può aiutare a creare immagini che appaiono &#039;&#039;&#039;più realistiche&#039;&#039;&#039; e con oggetti &#039;&#039;&#039;meglio definiti&#039;&#039;&#039; senza che l&#039;utente debba effettuare configurazioni complesse o &#039;&#039;&#039;passaggi supplementari&#039;&#039;&#039;.&lt;br /&gt;
Il termine &amp;quot;&#039;&#039;&#039;Scale&#039;&#039;&#039;&amp;quot; si riferisce all&#039;intensità con cui la guida basata sull&#039;auto-attenzione viene applicata durante il processo di generazione. Una &amp;quot;Scale&amp;quot; maggiore implica &#039;&#039;&#039;un&#039;adesione più forte al prompt testuale&#039;&#039;&#039; e può portare a immagini più &#039;&#039;&#039;dettagliate e coerenti con l&#039;input&#039;&#039;&#039;, anche se potrebbe ridurre la diversità delle immagini generate.&lt;br /&gt;
Il parametro &amp;quot;&#039;&#039;&#039;Blur Sigma&#039;&#039;&#039;&amp;quot;, invece, è associato al &#039;&#039;&#039;grado di sfocatura&#039;&#039;&#039; che viene applicato alle regioni selezionate di un&#039;immagine. Questo processo agisce dove le aree con maggiore auto-attenzione — ovvero quelle parti dell&#039;immagine che il modello riconosce come più importanti o informative — vengono &#039;&#039;&#039;sfocate&#039;&#039;&#039; leggermente. L&#039;idea è che &#039;&#039;&#039;enfatizzando&#039;&#039;&#039; il lavoro del modello su queste aree sfocate, il modello può generare risultati migliori, perfezionando le parti &#039;&#039;&#039;più significative&#039;&#039;&#039; dell&#039;immagine e &#039;&#039;&#039;riducendo&#039;&#039;&#039; potenzialmente il &#039;&#039;&#039;rumore&#039;&#039;&#039; o i &#039;&#039;&#039;dettagli superflui&#039;&#039;&#039; nelle regioni meno importanti.&lt;br /&gt;
I valori di default sono i seguenti: &amp;lt;&amp;lt;&#039;&#039;&#039;Scale = 0,5&#039;&#039;&#039;&amp;gt;&amp;gt; - &amp;lt;&amp;lt;&#039;&#039;&#039;Blur sigma = 2&#039;&#039;&#039;&amp;gt;&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* Parametri Statici:&lt;br /&gt;
** Prompt = &amp;quot;A man cooking a steak, he is in the kitchen, the stoves are on, &#039;&#039;&#039;the steak is being cooked on a pan&#039;&#039;&#039;&amp;quot;&lt;br /&gt;
** Clip skip = 1&lt;br /&gt;
** Sampling Method: DPM++2M SDE SGMUniform&lt;br /&gt;
** Sampling Steps: 30&lt;br /&gt;
** Upscaler : Latent (nearest-exact)&lt;br /&gt;
** Hires Step: 0&lt;br /&gt;
** Batch count : 1&lt;br /&gt;
** Batch size: 1&lt;br /&gt;
** CFG : 15&lt;br /&gt;
** Denoising Strength = 0,7&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:SAG_none_-_default.jpg|miniatura|200x200px|Tecnica omessa e valori default]]&lt;br /&gt;
|[[File:SAG_Scale.jpg|miniatura|200x200px|SAG Scale (da sinistra): -2; 1; 5]]&lt;br /&gt;
|[[File:SAG_BS.jpg|miniatura|200x200px|SAG BS (da sinistra): 0,1; 5; 10]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
==Osservazioni==&lt;br /&gt;
Nella prima immagine si osserva il confronto tra l&#039;immagine generata senza la tecnica del SAG e quella generata con quest&#039;ultima. Si evidenzia come l&#039;immagine generata con la tecnica con valori impostati di default sia di qualità inferiore alla prima, suggerendo che bisogna regolare i parametri di &amp;quot;scale&amp;quot; e di &amp;quot;blur sigma&amp;quot;. Per quanto riguarda le immagini generate variando solo il parametro di scale, si nota come si ottengano dei pessimi risultati impostando dei valori sia troppo bassi che troppo alti, e che quindi sia necessario lavorare nei valori intermedi (i risultati cambiano in base alla complessità del prompt). Relativamente al parametro di Blur sigma, si notano poche differenze fra le tre immagini, benché ci siano errori evidenti sul modo in cui l&#039;uomo tenga in mano degli oggetti difficilmente identificabili, soprattutto nei valori &amp;quot;0,1&amp;quot; e &amp;quot;10&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
=Altri componenti=&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|[[File:altrefunzioni.png|miniatura|500x500px|Tecniche]]&lt;br /&gt;
|}&lt;br /&gt;
==&#039;&#039;&#039;ControlNet&#039;&#039;&#039;== &lt;br /&gt;
Un modello di &#039;&#039;&#039;rete neurale&#039;&#039;&#039; progettato per controllare i modelli di Stable Diffusion, fornendo agli utenti un &#039;&#039;&#039;controllo dettagliato&#039;&#039;&#039; sugli output dei modelli di diffusione nelle attività di generazione di testo in immagine. ControlNet è una struttura di rete neurale che consente &#039;&#039;&#039;l&#039;aggiunta di condizioni aggiuntive&#039;&#039;&#039; per influenzare l&#039;output dei modelli di diffusione. Queste condizioni possono assumere molte forme, come [[Edge maps]], [[Depth maps]], e [[Semantic segmentations]]. L&#039;uso di ControlNet su Stable Diffusion offre numerosi vantaggi. Consente un controllo preciso sulla semantica e sulle caratteristiche del contenuto generato, consentendo la generazione di output più &#039;&#039;&#039;accurati&#039;&#039;&#039; e &#039;&#039;&#039;personalizzati&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;DynamicThresholding (CFG-Fix)&#039;&#039;&#039;==  &lt;br /&gt;
è un &#039;&#039;&#039;filtro&#039;&#039;&#039; per migliorare le immagini. Aiuta a risolvere &#039;&#039;&#039;problemi di colore&#039;&#039;&#039; quando si usano &#039;&#039;&#039;impostazioni più alte&#039;&#039;&#039;. Queste ultime, si riferiscono a valori maggiori o livelli superiori, significa utilizzare valori più grandi per &#039;&#039;&#039;migliorare&#039;&#039;&#039; l’immagine. Ad esempio, se un’immagine è leggermente sbiadita e la si vuole rendere più nitida, è possibile aumentare determinati parametri. Tuttavia, a volte, quando si usano valori troppo alti, potrebbero verificarsi problemi di colore. Ecco dove entra in gioco CFG-Fix: risolve questi problemi di colore quando si utilizzano impostazioni elevate.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;FreeU&#039;&#039;&#039;== &lt;br /&gt;
Un componente aggiuntivo di Stable Diffusion che migliora la qualità dell&#039;immagine modificando il &#039;&#039;&#039;denoiser&#039;&#039;&#039; del modello. Il miglioramento avviene senza costi: nessun addestramento, nessun parametro aggiuntivo introdotto e nessun aumento della memoria o del tempo di campionamento.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;HyperTile&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;metodo&#039;&#039;&#039; che ottimizza il livello di &#039;&#039;&#039;auto-attenzione&#039;&#039;&#039; all’interno dei modelli Stable-Diffusion. Questo porta a una &#039;&#039;&#039;riduzione del tempo di calcolo&#039;&#039;&#039; che varia da 1 a 4 volte, a seconda della &#039;&#039;&#039;risoluzione iniziale&#039;&#039;&#039;.&lt;br /&gt;
==&#039;&#039;&#039;Kohya HRFix&#039;&#039;&#039;== &lt;br /&gt;
è un’&#039;&#039;&#039;estensione&#039;&#039;&#039; utilizzata nei modelli Stable-Diffusion per migliorare la risoluzione delle immagini generate. Questa estensione è stata sviluppata da Kohya e ha lo scopo di &#039;&#039;&#039;limitare i problemi di clonazione/crollo&#039;&#039;&#039; nelle immagini ad alta risoluzione. Tuttavia, l’uso di Kohya HRFix può ridurre la varietà delle immagini generate, rendendole più identiche tra loro. Le impostazioni ottimali per Kohya HRFix possono variare a seconda delle esigenze specifiche dell’utente.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;LatentModifier&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;componente&#039;&#039;&#039; che &#039;&#039;&#039;modifica i valori latenti&#039;&#039;&#039; durante il &#039;&#039;&#039;processo di diffusione&#039;&#039;&#039; in un modello di generazione di immagini. Queste modifiche possono influenzare vari aspetti dell’immagine finale, come la &#039;&#039;&#039;nitidezza&#039;&#039;&#039;, il &#039;&#039;&#039;contrasto&#039;&#039;&#039; e il &#039;&#039;&#039;rumore&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;MultiDiffusion&#039;&#039;&#039;== &lt;br /&gt;
è un &#039;&#039;&#039;framework&#039;&#039;&#039; unificato che consente la generazione di immagini &#039;&#039;&#039;versatili&#039;&#039;&#039; e &#039;&#039;&#039;controllabili&#039;&#039;&#039;, utilizzando un modello di diffusione text-to-image pre-addestrato. Al centro dell’approccio c’è un nuovo processo di generazione, basato su un compito di &#039;&#039;&#039;ottimizzazione&#039;&#039;&#039; che lega insieme &#039;&#039;&#039;più processi&#039;&#039;&#039; di generazione di diffusione con un &#039;&#039;&#039;insieme condiviso di parametri o vincoli&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==&#039;&#039;&#039;Never OOM&#039;&#039;&#039;== &lt;br /&gt;
è un’&#039;&#039;&#039;opzione&#039;&#039;&#039; che permette di scaricare sempre i modelli dalla &#039;&#039;&#039;VRAM&#039;&#039;&#039;. Questo può essere utile se si utilizzano &#039;&#039;&#039;più software insieme&#039;&#039;&#039; e si desidera che Stable Diffusion utilizzi meno VRAM e ne dia &#039;&#039;&#039;una parte ad altri software&#039;&#039;&#039;, o quando si utilizzano vecchie estensioni che competono con la VRAM di Stable Diffusion. [[Category:strumento]]&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=File:Png.png&amp;diff=1487</id>
		<title>File:Png.png</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=File:Png.png&amp;diff=1487"/>
		<updated>2024-03-21T14:30:34Z</updated>

		<summary type="html">&lt;p&gt;Stefano: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Extras&amp;diff=1485</id>
		<title>Extras</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Extras&amp;diff=1485"/>
		<updated>2024-03-21T14:04:20Z</updated>

		<summary type="html">&lt;p&gt;Stefano: /* Risultato */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La funzione &amp;quot;Extras&amp;quot; permette principalmente di applicare da uno a due upscaler di diverso tipo per &#039;&#039;&#039;migliorare&#039;&#039;&#039; la &#039;&#039;&#039;qualità&#039;&#039;&#039; dell&#039;immagine e i &#039;&#039;&#039;dettagli&#039;&#039;&#039;.&lt;br /&gt;
=Overview dell&#039;interfaccia=&lt;br /&gt;
[[File:Extras.png|600x600px]]&lt;br /&gt;
*&#039;&#039;&#039;Upscaler 1 - 2&#039;&#039;&#039;: Sono strumenti che permettono di applicare diversi tipi di upscaler all&#039;immagine inserita nella dashboard.&lt;br /&gt;
*&#039;&#039;&#039;Upscaler 2 visibility&#039;&#039;&#039;: è un parametro che permette di modificare la visibilità del secondo upscaler.&lt;br /&gt;
*&#039;&#039;&#039;Resize&#039;&#039;&#039;: Permette di modificare la dimensione dell&#039;immagine originale.&lt;br /&gt;
*&#039;&#039;&#039;Scale to - Scale by&#039;&#039;&#039;: &amp;quot;Scale By&amp;quot; permette di ridimensionare l&#039;immagine moltiplicando le sue dimensioni originali per un fattore specifico. Nell&#039;immagine il fattore è pari a 4, quindi l&#039;immagine sarà ingrandita quattro volte. &amp;quot;Scale to&amp;quot;, d&#039;altra parte, permette di impostare una dimensione specifica alla quale si desidera che l&#039;immagine sia ridimensionata. Questo può essere utile se si carica un&#039;immagine di dimensioni specifiche che vogliono raggiungere. Ad esempio, Per avere l&#039;immagine esattamente 500 pixel per 500 pixel, si può utilizzare l&#039;opzione &amp;quot;Scale to&amp;quot; per farlo.&lt;br /&gt;
&lt;br /&gt;
==Risultato==&lt;br /&gt;
Il risultato dell&#039;upscaling mostra come non solo l&#039;immagine si sia ingrandita, ma non abbia perso nemmeno qualità e dettagli grazie alla combinazione dei due upscaler.&lt;br /&gt;
&lt;br /&gt;
[[File:risultato.png|600x600px]]&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Extras&amp;diff=1484</id>
		<title>Extras</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Extras&amp;diff=1484"/>
		<updated>2024-03-21T14:03:46Z</updated>

		<summary type="html">&lt;p&gt;Stefano: /* Risultato */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La funzione &amp;quot;Extras&amp;quot; permette principalmente di applicare da uno a due upscaler di diverso tipo per &#039;&#039;&#039;migliorare&#039;&#039;&#039; la &#039;&#039;&#039;qualità&#039;&#039;&#039; dell&#039;immagine e i &#039;&#039;&#039;dettagli&#039;&#039;&#039;.&lt;br /&gt;
=Overview dell&#039;interfaccia=&lt;br /&gt;
[[File:Extras.png|600x600px]]&lt;br /&gt;
*&#039;&#039;&#039;Upscaler 1 - 2&#039;&#039;&#039;: Sono strumenti che permettono di applicare diversi tipi di upscaler all&#039;immagine inserita nella dashboard.&lt;br /&gt;
*&#039;&#039;&#039;Upscaler 2 visibility&#039;&#039;&#039;: è un parametro che permette di modificare la visibilità del secondo upscaler.&lt;br /&gt;
*&#039;&#039;&#039;Resize&#039;&#039;&#039;: Permette di modificare la dimensione dell&#039;immagine originale.&lt;br /&gt;
*&#039;&#039;&#039;Scale to - Scale by&#039;&#039;&#039;: &amp;quot;Scale By&amp;quot; permette di ridimensionare l&#039;immagine moltiplicando le sue dimensioni originali per un fattore specifico. Nell&#039;immagine il fattore è pari a 4, quindi l&#039;immagine sarà ingrandita quattro volte. &amp;quot;Scale to&amp;quot;, d&#039;altra parte, permette di impostare una dimensione specifica alla quale si desidera che l&#039;immagine sia ridimensionata. Questo può essere utile se si carica un&#039;immagine di dimensioni specifiche che vogliono raggiungere. Ad esempio, Per avere l&#039;immagine esattamente 500 pixel per 500 pixel, si può utilizzare l&#039;opzione &amp;quot;Scale to&amp;quot; per farlo.&lt;br /&gt;
&lt;br /&gt;
==Risultato==&lt;br /&gt;
[[File:risultato.png|600x600px]]&lt;br /&gt;
&lt;br /&gt;
Il risultato dell&#039;upscaling mostra come non solo l&#039;immagine si sia ingrandita, ma non abbia perso nemmeno qualità e dettagli grazie alla combinazione dei due upscaler.&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Extras&amp;diff=1483</id>
		<title>Extras</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Extras&amp;diff=1483"/>
		<updated>2024-03-21T14:03:30Z</updated>

		<summary type="html">&lt;p&gt;Stefano: /* Risultato */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La funzione &amp;quot;Extras&amp;quot; permette principalmente di applicare da uno a due upscaler di diverso tipo per &#039;&#039;&#039;migliorare&#039;&#039;&#039; la &#039;&#039;&#039;qualità&#039;&#039;&#039; dell&#039;immagine e i &#039;&#039;&#039;dettagli&#039;&#039;&#039;.&lt;br /&gt;
=Overview dell&#039;interfaccia=&lt;br /&gt;
[[File:Extras.png|600x600px]]&lt;br /&gt;
*&#039;&#039;&#039;Upscaler 1 - 2&#039;&#039;&#039;: Sono strumenti che permettono di applicare diversi tipi di upscaler all&#039;immagine inserita nella dashboard.&lt;br /&gt;
*&#039;&#039;&#039;Upscaler 2 visibility&#039;&#039;&#039;: è un parametro che permette di modificare la visibilità del secondo upscaler.&lt;br /&gt;
*&#039;&#039;&#039;Resize&#039;&#039;&#039;: Permette di modificare la dimensione dell&#039;immagine originale.&lt;br /&gt;
*&#039;&#039;&#039;Scale to - Scale by&#039;&#039;&#039;: &amp;quot;Scale By&amp;quot; permette di ridimensionare l&#039;immagine moltiplicando le sue dimensioni originali per un fattore specifico. Nell&#039;immagine il fattore è pari a 4, quindi l&#039;immagine sarà ingrandita quattro volte. &amp;quot;Scale to&amp;quot;, d&#039;altra parte, permette di impostare una dimensione specifica alla quale si desidera che l&#039;immagine sia ridimensionata. Questo può essere utile se si carica un&#039;immagine di dimensioni specifiche che vogliono raggiungere. Ad esempio, Per avere l&#039;immagine esattamente 500 pixel per 500 pixel, si può utilizzare l&#039;opzione &amp;quot;Scale to&amp;quot; per farlo.&lt;br /&gt;
&lt;br /&gt;
==Risultato==&lt;br /&gt;
[[File:risultato.png|600x600px]]&lt;br /&gt;
Il risultato dell&#039;upscaling mostra come non solo l&#039;immagine si sia ingrandita, ma non abbia perso nemmeno qualità e dettagli grazie alla combinazione dei due upscaler.&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Extras&amp;diff=1482</id>
		<title>Extras</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Extras&amp;diff=1482"/>
		<updated>2024-03-21T14:01:21Z</updated>

		<summary type="html">&lt;p&gt;Stefano: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La funzione &amp;quot;Extras&amp;quot; permette principalmente di applicare da uno a due upscaler di diverso tipo per &#039;&#039;&#039;migliorare&#039;&#039;&#039; la &#039;&#039;&#039;qualità&#039;&#039;&#039; dell&#039;immagine e i &#039;&#039;&#039;dettagli&#039;&#039;&#039;.&lt;br /&gt;
=Overview dell&#039;interfaccia=&lt;br /&gt;
[[File:Extras.png|600x600px]]&lt;br /&gt;
*&#039;&#039;&#039;Upscaler 1 - 2&#039;&#039;&#039;: Sono strumenti che permettono di applicare diversi tipi di upscaler all&#039;immagine inserita nella dashboard.&lt;br /&gt;
*&#039;&#039;&#039;Upscaler 2 visibility&#039;&#039;&#039;: è un parametro che permette di modificare la visibilità del secondo upscaler.&lt;br /&gt;
*&#039;&#039;&#039;Resize&#039;&#039;&#039;: Permette di modificare la dimensione dell&#039;immagine originale.&lt;br /&gt;
*&#039;&#039;&#039;Scale to - Scale by&#039;&#039;&#039;: &amp;quot;Scale By&amp;quot; permette di ridimensionare l&#039;immagine moltiplicando le sue dimensioni originali per un fattore specifico. Nell&#039;immagine il fattore è pari a 4, quindi l&#039;immagine sarà ingrandita quattro volte. &amp;quot;Scale to&amp;quot;, d&#039;altra parte, permette di impostare una dimensione specifica alla quale si desidera che l&#039;immagine sia ridimensionata. Questo può essere utile se si carica un&#039;immagine di dimensioni specifiche che vogliono raggiungere. Ad esempio, Per avere l&#039;immagine esattamente 500 pixel per 500 pixel, si può utilizzare l&#039;opzione &amp;quot;Scale to&amp;quot; per farlo.&lt;br /&gt;
&lt;br /&gt;
==Risultato==&lt;br /&gt;
[[File:risultato.png|600x600px]]&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=File:Risultato.png&amp;diff=1481</id>
		<title>File:Risultato.png</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=File:Risultato.png&amp;diff=1481"/>
		<updated>2024-03-21T14:00:18Z</updated>

		<summary type="html">&lt;p&gt;Stefano: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Extras&amp;diff=1480</id>
		<title>Extras</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Extras&amp;diff=1480"/>
		<updated>2024-03-21T09:43:54Z</updated>

		<summary type="html">&lt;p&gt;Stefano: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La funzione &amp;quot;Extras&amp;quot; permette principalmente di applicare da uno a due upscaler di diverso tipo per &#039;&#039;&#039;migliorare&#039;&#039;&#039; la &#039;&#039;&#039;qualità&#039;&#039;&#039; dell&#039;immagine e i &#039;&#039;&#039;dettagli&#039;&#039;&#039;.&lt;br /&gt;
=Overview dell&#039;interfaccia=&lt;br /&gt;
[[File:Extras.png|600x600px]]&lt;br /&gt;
*&#039;&#039;&#039;Upscaler 1 - 2&#039;&#039;&#039;: Sono strumenti che permettono di applicare diversi tipi di upscaler all&#039;immagine inserita nella dashboard.&lt;br /&gt;
*&#039;&#039;&#039;Upscaler 2 visibility&#039;&#039;&#039;: è un parametro che permette di modificare la visibilità del secondo upscaler.&lt;br /&gt;
*&#039;&#039;&#039;Resize&#039;&#039;&#039;: Permette di modificare la dimensione dell&#039;immagine originale.&lt;br /&gt;
*&#039;&#039;&#039;Scale to - Scale by&#039;&#039;&#039;: &amp;quot;Scale By&amp;quot; permette di ridimensionare l&#039;immagine moltiplicando le sue dimensioni originali per un fattore specifico. Nell&#039;immagine il fattore è pari a 4, quindi l&#039;immagine sarà ingrandita quattro volte. &amp;quot;Scale to&amp;quot;, d&#039;altra parte, permette di impostare una dimensione specifica alla quale si desidera che l&#039;immagine sia ridimensionata. Questo può essere utile se si carica un&#039;immagine di dimensioni specifiche che vogliono raggiungere. Ad esempio, Per avere l&#039;immagine esattamente 500 pixel per 500 pixel, si può utilizzare l&#039;opzione &amp;quot;Scale to&amp;quot; per farlo.&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Extras&amp;diff=1479</id>
		<title>Extras</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Extras&amp;diff=1479"/>
		<updated>2024-03-21T09:41:32Z</updated>

		<summary type="html">&lt;p&gt;Stefano: /* Overview dell&amp;#039;interfaccia */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La funzione &amp;quot;Extras&amp;quot; permette principalmente di applicare da uno a due upscaler di diverso tipo per migliorare la qualità dell&#039;immagine e i dettagli.&lt;br /&gt;
=Overview dell&#039;interfaccia=&lt;br /&gt;
[[File:Extras.png|600x600px]]&lt;br /&gt;
*&#039;&#039;&#039;Upscaler 1 - 2&#039;&#039;&#039;: Sono strumenti che permettono di applicare diversi tipi di upscaler all&#039;immagine inserita nella dashboard.&lt;br /&gt;
*&#039;&#039;&#039;Upscaler 2 visibility&#039;&#039;&#039;: è un parametro che permette di modificare la visibilità del secondo upscaler.&lt;br /&gt;
*&#039;&#039;&#039;Resize&#039;&#039;&#039;: Permette di modificare la dimensione dell&#039;immagine originale.&lt;br /&gt;
*&#039;&#039;&#039;Scale to - Scale by&#039;&#039;&#039;: &amp;quot;Scale By&amp;quot; permette di ridimensionare l&#039;immagine moltiplicando le sue dimensioni originali per un fattore specifico. Nell&#039;immagine il fattore è pari a 4, quindi l&#039;immagine sarà ingrandita quattro volte. &amp;quot;Scale to&amp;quot;, d&#039;altra parte, permette di impostare una dimensione specifica alla quale si desidera che l&#039;immagine sia ridimensionata. Questo può essere utile se si carica un&#039;immagine di dimensioni specifiche che vogliono raggiungere. Ad esempio, Per avere l&#039;immagine esattamente 500 pixel per 500 pixel, si può utilizzare l&#039;opzione &amp;quot;Scale to&amp;quot; per farlo.&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Extras&amp;diff=1478</id>
		<title>Extras</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Extras&amp;diff=1478"/>
		<updated>2024-03-21T09:32:37Z</updated>

		<summary type="html">&lt;p&gt;Stefano: /* Overview dell&amp;#039;interfaccia */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La funzione &amp;quot;Extras&amp;quot; permette principalmente di applicare da uno a due upscaler di diverso tipo per migliorare la qualità dell&#039;immagine e i dettagli.&lt;br /&gt;
=Overview dell&#039;interfaccia=&lt;br /&gt;
[[File:Extras.png|600x600px]]&lt;br /&gt;
*&#039;&#039;&#039;Upscaler 1 e 2&#039;&#039;&#039;: Sono strumenti che permettono di applicare diversi tipi di upscaler all&#039;immagine inserita nella dashboard.&lt;br /&gt;
*&#039;&#039;&#039;Upscaler 2 visibility&#039;&#039;&#039;: è un parametro che permette di modificare la visibilità del secondo upscaler.&lt;br /&gt;
*&#039;&#039;&#039;Resize&#039;&#039;&#039;: Permette di modificare la dimensione dell&#039;immagine originale.&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Extras&amp;diff=1477</id>
		<title>Extras</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Extras&amp;diff=1477"/>
		<updated>2024-03-21T09:27:40Z</updated>

		<summary type="html">&lt;p&gt;Stefano: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La funzione &amp;quot;Extras&amp;quot; permette principalmente di applicare da uno a due upscaler di diverso tipo per migliorare la qualità dell&#039;immagine e i dettagli.&lt;br /&gt;
=Overview dell&#039;interfaccia=&lt;br /&gt;
[[File:Extras.png|600x600px]]&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Extras&amp;diff=1476</id>
		<title>Extras</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Extras&amp;diff=1476"/>
		<updated>2024-03-21T09:14:46Z</updated>

		<summary type="html">&lt;p&gt;Stefano: Creata pagina con &amp;quot;600x600px&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[File:Extras.png|600x600px]]&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=File:Extras.png&amp;diff=1475</id>
		<title>File:Extras.png</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=File:Extras.png&amp;diff=1475"/>
		<updated>2024-03-21T09:13:54Z</updated>

		<summary type="html">&lt;p&gt;Stefano: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Img2img&amp;diff=1474</id>
		<title>Img2img</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Img2img&amp;diff=1474"/>
		<updated>2024-03-21T08:58:12Z</updated>

		<summary type="html">&lt;p&gt;Stefano: /* Funzionalità aggiuntive */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Img2img è uno strumento in [[Stable Diffusion]] che genera nuove immagini a partire da &#039;&#039;&#039;un’immagine di input e un prompt di testo corrispondente&#039;&#039;&#039;. L’immagine di output conserva il &#039;&#039;&#039;colore originale&#039;&#039;&#039; e la &#039;&#039;&#039;composizione&#039;&#039;&#039; dell’immagine di input. Questo strumento può trasformare i disegni più semplici in capolavori visivamente sorprendenti.&lt;br /&gt;
&lt;br /&gt;
=Overview dell&#039;interfaccia=&lt;br /&gt;
[[File:img2img.png|700px]]&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Sketch&#039;&#039;&#039;: è un’opzione che permette di disegnare direttamente sul canvas dell’interfaccia utente. Questo può essere particolarmente utile quando si utilizza la funzione img2img, poiché consente di creare un’immagine di input personalizzata per la generazione dell’immagine. Si può caricare un’immagine di sfondo sul canvas e poi utilizzare lo strumento &amp;quot;Sketch&amp;quot; per disegnare o aggiungere dettagli.&lt;br /&gt;
* &#039;&#039;&#039;Inpaint&#039;&#039;&#039;: è una funzione che consente di correggere piccoli difetti in un’immagine. Questo processo, implica l’uso di un modello di diffusione per rigenerare parti specifiche dell’immagine. Utilizzando lo strumento “pennello” si crea una maschera sull’area che si desidera rigenerare. Questa funzione può essere particolarmente utile per correggere specifiche aree senza dover rigenerare l’intera immagine.&lt;br /&gt;
* &#039;&#039;&#039;Inpaint sketch&#039;&#039;&#039;: è una funzione che combina le funzionalità di “Sketch” e “Inpaint”. Permette di disegnare o schizzare direttamente sull’immagine di input e poi utilizzare la funzione “Inpaint” per rigenerare le parti dell’immagine che sono state modificate dallo schizzo. Per esempio, può servire quando si desidera fare piccole modifiche a un’immagine esistente senza dover rigenerarla.&lt;br /&gt;
* &#039;&#039;&#039;Inpaint&#039;&#039;&#039; &#039;&#039;&#039;upload&#039;&#039;&#039;: è una funzione che permette di caricare una maschera di &amp;quot;inpainting&amp;quot; personalizzata, piuttosto che disegnarla direttamente nell’interfaccia utente. Questa può essere utile per creare una maschera più complessa o dettagliata per l’inpainting. Dopo aver caricato la maschera, Stable Diffusion la utilizzerà per determinare quali parti dell’immagine rigenerare.&lt;br /&gt;
* &#039;&#039;&#039;Batch&#039;&#039;&#039;: è una funzione che permette di processare più immagini contemporaneamente. Può essere d&#039;aiuto quando si desidera applicare la stessa operazione, come img2img, a un intero set di immagini.&lt;br /&gt;
* &#039;&#039;&#039;Copy image to&#039;&#039;&#039;: Questa opzione permette di scegliere dove si desidera copiare l&#039;immagine processata tra le diverse funzioni disponibili.&lt;br /&gt;
* &#039;&#039;&#039;Soft inpainting&#039;&#039;&#039;: è una funzione che consente di rigenerare parti di un’immagine in modo più fluido e naturale. A differenza dell’inpainting standard, che utilizza una maschera binaria per determinare quali parti dell’immagine rigenerare, Soft Inpainting utilizza una maschera in scala di grigi per creare una transizione più morbida tra le aree rigenerate e il resto dell’immagine. Questo può portare a risultati più naturali, soprattutto quando si rigenerano aree complesse o dettagliate.&lt;br /&gt;
* &#039;&#039;&#039;Resize mode&#039;&#039;&#039;&lt;br /&gt;
** &#039;&#039;&#039;Just resize&#039;&#039;&#039;: Cambia solo le dimensioni dell&#039;immagine senza modificarne le proporzioni.&lt;br /&gt;
** &#039;&#039;&#039;Crop and resize&#039;&#039;&#039;: Ritaglia e cambia le dimensioni dell&#039;immagine per adattarla a specifiche proporzioni.&lt;br /&gt;
** &#039;&#039;&#039;Resize and fill&#039;&#039;&#039;: Cambia le dimensioni dell&#039;immagine e riempie lo spazio aggiuntivo per mantenere le proporzioni originali.&lt;br /&gt;
** &#039;&#039;&#039;Just resize (latent upscale)&#039;&#039;&#039;: Modifica le dimensioni dell&#039;immagine utilizzando una tecnica di upscaling che mantiene la qualità dell&#039;immagine originale.&lt;br /&gt;
&lt;br /&gt;
=Funzionalità aggiuntive=&lt;br /&gt;
&lt;br /&gt;
[[File:Funzagg.png|600x600px]]&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Inpaint masked&#039;&#039;&#039;: Questa opzione significa che la funzione lavorerà per riempire o “dipingere” le aree mascherate dell’immagine. In altre parole, le aree mascherate dell’immagine saranno sostituite con nuovi pixel generati dall’algoritmo di inpainting.&lt;br /&gt;
&#039;&#039;&#039;Inpaint not masked&#039;&#039;&#039;: Questa opzione indica che la funzione lavorerà sulle aree non mascherate, lasciando intatte le parti mascherate. Quindi, solo i pixel non mascherati dell’immagine saranno modificati dall’algoritmo di inpainting.&lt;br /&gt;
&#039;&#039;&#039;Mask blur&#039;&#039;&#039;: Questo parametro consente di regolare il livello di sfocatura applicato alla maschera di un&#039;immagine, sfumandola, e creando una transizione più morbida e naturale tra le aree mascherate e non mascherate. Un valore di Mask blur più alto corrisponde a una transizione più morbida (o sfocata) tra le aree, mentre un valore più basso produce una transizione più netta.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Masked content&#039;&#039;&#039;: Controlla in quale modo l&#039;area mascherata viene inizializzata. Di seguito vengono elencate le diverse opzioni di inizializzazione.&lt;br /&gt;
*&#039;&#039;&#039;Fill&#039;&#039;&#039;: inizializza con un&#039;immagine molto sfocata dell&#039;originale.&lt;br /&gt;
*&#039;&#039;&#039;Original&#039;&#039;&#039;: Non modificato.&lt;br /&gt;
*&#039;&#039;&#039;Latent noise&#039;&#039;&#039;: l&#039;area mascherata inizializzata con &amp;quot;fill&amp;quot; e rumore casuale viene aggiunta allo spazio latente.&lt;br /&gt;
*&#039;&#039;&#039;Latent nothing&#039;&#039;&#039;: come il latent noise, tranne che non viene aggiunto rumore allo spazio latente.&lt;br /&gt;
&#039;&#039;&#039;Inpaint area&#039;&#039;&#039;: permette di scegliere l’area dell’immagine su cui l’algoritmo di inpainting dovrà lavorare. Di seguito vengono elencati i vari parametri relativi.&lt;br /&gt;
*&#039;&#039;&#039;Whole picture&#039;&#039;&#039;: Selezionando questa opzione, l’algoritmo di inpainting lavorerà su tutta l’immagine, indipendentemente dalla maschera.&lt;br /&gt;
*&#039;&#039;&#039;Only masked&#039;&#039;&#039;: l’algoritmo di inpainting lavorerà solo sulle aree mascherate dell’immagine.&lt;br /&gt;
*&#039;&#039;&#039;Only masked padding, pixels&#039;&#039;&#039;: permette di specificare un numero di pixel intorno all’area mascherata che l’algoritmo di inpainting dovrebbe considerare. Ad esempio, se si imposta il parametro a 10 pixel, l’algoritmo lavorerà sull’area mascherata più un contorno di 10 pixel attorno ad essa.&lt;br /&gt;
&#039;&#039;&#039;Soft inpainting&#039;&#039;&#039;: aggiunge in modo naturale e fluido nuovi contenuti che si fondono con l&#039;immagine originale.&lt;br /&gt;
&lt;br /&gt;
=Sperimentazioni=&lt;br /&gt;
==Img2img==&lt;br /&gt;
In questo caso, bisognerà inserire un&#039;immagine all&#039;interno dell&#039;interfaccia. In seguito, si inserirà un prompt per determinare in che modo si vuole modificare l&#039;immagine originale. In più, si possono cambiare i parametri che ritroviamo anche nella dashboard di [[Txt2img (Stable Diffusion)]]. Sotto l&#039;immagine che verrà generata apparirà un riassunto dei valori dei parametri inseriti.&lt;br /&gt;
&lt;br /&gt;
[[File:Robotic_cat1.png|600x600px]]&lt;br /&gt;
Prompt: Robotic cat made of Glass&lt;br /&gt;
&lt;br /&gt;
==Sketch==&lt;br /&gt;
In questo esperimento gli occhi del gatto sono stati colorati di azzurro per far comprendere al modello che l&#039;immagine richiesta dovrà presentare non solo un gatto robotico di vetro, ma anche degli occhi luminosi con quel determinato colore.&lt;br /&gt;
&lt;br /&gt;
[[File:Robotic_cat2.png|600x600px]]&lt;br /&gt;
Prompt: Robotic cat made of Glass&lt;br /&gt;
&lt;br /&gt;
==Inpaint==&lt;br /&gt;
In questo caso, l&#039;immagine originale viene rigenerata soltanto con le aree che si vogliono modificare/correggere. Inoltre, sarà necessario comporre un prompt con il risultato desiderato.&lt;br /&gt;
&lt;br /&gt;
[[File:Cat_ears.png|600x600px]]&lt;br /&gt;
Prompt: Cat ears made of metal&lt;br /&gt;
&lt;br /&gt;
==Inpaint sketch==&lt;br /&gt;
Questa funzione è servita per modificare il risultato generato dalla funzione &amp;quot;Inpaint&amp;quot;. In questo caso, è stata disegnata sopra l&#039;immagine una sciarpa rossa che dovrà fondersi al risultato precedente.&lt;br /&gt;
&lt;br /&gt;
[[File:Cat_scarf.png|600x600px]]&lt;br /&gt;
prompt: Red scarf&lt;br /&gt;
&lt;br /&gt;
[[Category:strumento]]&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Img2img&amp;diff=1473</id>
		<title>Img2img</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Img2img&amp;diff=1473"/>
		<updated>2024-03-21T08:57:42Z</updated>

		<summary type="html">&lt;p&gt;Stefano: /* Funzionalità aggiuntive */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Img2img è uno strumento in [[Stable Diffusion]] che genera nuove immagini a partire da &#039;&#039;&#039;un’immagine di input e un prompt di testo corrispondente&#039;&#039;&#039;. L’immagine di output conserva il &#039;&#039;&#039;colore originale&#039;&#039;&#039; e la &#039;&#039;&#039;composizione&#039;&#039;&#039; dell’immagine di input. Questo strumento può trasformare i disegni più semplici in capolavori visivamente sorprendenti.&lt;br /&gt;
&lt;br /&gt;
=Overview dell&#039;interfaccia=&lt;br /&gt;
[[File:img2img.png|700px]]&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Sketch&#039;&#039;&#039;: è un’opzione che permette di disegnare direttamente sul canvas dell’interfaccia utente. Questo può essere particolarmente utile quando si utilizza la funzione img2img, poiché consente di creare un’immagine di input personalizzata per la generazione dell’immagine. Si può caricare un’immagine di sfondo sul canvas e poi utilizzare lo strumento &amp;quot;Sketch&amp;quot; per disegnare o aggiungere dettagli.&lt;br /&gt;
* &#039;&#039;&#039;Inpaint&#039;&#039;&#039;: è una funzione che consente di correggere piccoli difetti in un’immagine. Questo processo, implica l’uso di un modello di diffusione per rigenerare parti specifiche dell’immagine. Utilizzando lo strumento “pennello” si crea una maschera sull’area che si desidera rigenerare. Questa funzione può essere particolarmente utile per correggere specifiche aree senza dover rigenerare l’intera immagine.&lt;br /&gt;
* &#039;&#039;&#039;Inpaint sketch&#039;&#039;&#039;: è una funzione che combina le funzionalità di “Sketch” e “Inpaint”. Permette di disegnare o schizzare direttamente sull’immagine di input e poi utilizzare la funzione “Inpaint” per rigenerare le parti dell’immagine che sono state modificate dallo schizzo. Per esempio, può servire quando si desidera fare piccole modifiche a un’immagine esistente senza dover rigenerarla.&lt;br /&gt;
* &#039;&#039;&#039;Inpaint&#039;&#039;&#039; &#039;&#039;&#039;upload&#039;&#039;&#039;: è una funzione che permette di caricare una maschera di &amp;quot;inpainting&amp;quot; personalizzata, piuttosto che disegnarla direttamente nell’interfaccia utente. Questa può essere utile per creare una maschera più complessa o dettagliata per l’inpainting. Dopo aver caricato la maschera, Stable Diffusion la utilizzerà per determinare quali parti dell’immagine rigenerare.&lt;br /&gt;
* &#039;&#039;&#039;Batch&#039;&#039;&#039;: è una funzione che permette di processare più immagini contemporaneamente. Può essere d&#039;aiuto quando si desidera applicare la stessa operazione, come img2img, a un intero set di immagini.&lt;br /&gt;
* &#039;&#039;&#039;Copy image to&#039;&#039;&#039;: Questa opzione permette di scegliere dove si desidera copiare l&#039;immagine processata tra le diverse funzioni disponibili.&lt;br /&gt;
* &#039;&#039;&#039;Soft inpainting&#039;&#039;&#039;: è una funzione che consente di rigenerare parti di un’immagine in modo più fluido e naturale. A differenza dell’inpainting standard, che utilizza una maschera binaria per determinare quali parti dell’immagine rigenerare, Soft Inpainting utilizza una maschera in scala di grigi per creare una transizione più morbida tra le aree rigenerate e il resto dell’immagine. Questo può portare a risultati più naturali, soprattutto quando si rigenerano aree complesse o dettagliate.&lt;br /&gt;
* &#039;&#039;&#039;Resize mode&#039;&#039;&#039;&lt;br /&gt;
** &#039;&#039;&#039;Just resize&#039;&#039;&#039;: Cambia solo le dimensioni dell&#039;immagine senza modificarne le proporzioni.&lt;br /&gt;
** &#039;&#039;&#039;Crop and resize&#039;&#039;&#039;: Ritaglia e cambia le dimensioni dell&#039;immagine per adattarla a specifiche proporzioni.&lt;br /&gt;
** &#039;&#039;&#039;Resize and fill&#039;&#039;&#039;: Cambia le dimensioni dell&#039;immagine e riempie lo spazio aggiuntivo per mantenere le proporzioni originali.&lt;br /&gt;
** &#039;&#039;&#039;Just resize (latent upscale)&#039;&#039;&#039;: Modifica le dimensioni dell&#039;immagine utilizzando una tecnica di upscaling che mantiene la qualità dell&#039;immagine originale.&lt;br /&gt;
&lt;br /&gt;
=Funzionalità aggiuntive=&lt;br /&gt;
&lt;br /&gt;
[[File:Funzagg.png|600x600px]]&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Inpaint masked&#039;&#039;&#039;: Questa opzione significa che la funzione lavorerà per riempire o “dipingere” le aree mascherate dell’immagine. In altre parole, le aree mascherate dell’immagine saranno sostituite con nuovi pixel generati dall’algoritmo di inpainting.&lt;br /&gt;
&#039;&#039;&#039;Inpaint not masked&#039;&#039;&#039;: Questa opzione indica che la funzione lavorerà sulle aree non mascherate, lasciando intatte le parti mascherate. Quindi, solo i pixel non mascherati dell’immagine saranno modificati dall’algoritmo di inpainting.&lt;br /&gt;
&#039;&#039;&#039;Masked blur&#039;&#039;&#039;: Questo parametro consente di regolare il livello di sfocatura applicato alla maschera di un&#039;immagine, sfumandola, e creando una transizione più morbida e naturale tra le aree mascherate e non mascherate. Un valore di Mask blur più alto corrisponde a una transizione più morbida (o sfocata) tra le aree, mentre un valore più basso produce una transizione più netta.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Masked content&#039;&#039;&#039;: Controlla in quale modo l&#039;area mascherata viene inizializzata. Di seguito vengono elencate le diverse opzioni di inizializzazione.&lt;br /&gt;
*&#039;&#039;&#039;Fill&#039;&#039;&#039;: inizializza con un&#039;immagine molto sfocata dell&#039;originale.&lt;br /&gt;
*&#039;&#039;&#039;Original&#039;&#039;&#039;: Non modificato.&lt;br /&gt;
*&#039;&#039;&#039;Latent noise&#039;&#039;&#039;: l&#039;area mascherata inizializzata con &amp;quot;fill&amp;quot; e rumore casuale viene aggiunta allo spazio latente.&lt;br /&gt;
*&#039;&#039;&#039;Latent nothing&#039;&#039;&#039;: come il latent noise, tranne che non viene aggiunto rumore allo spazio latente.&lt;br /&gt;
&#039;&#039;&#039;Inpaint area&#039;&#039;&#039;: permette di scegliere l’area dell’immagine su cui l’algoritmo di inpainting dovrà lavorare. Di seguito vengono elencati i vari parametri relativi.&lt;br /&gt;
*&#039;&#039;&#039;Whole picture&#039;&#039;&#039;: Selezionando questa opzione, l’algoritmo di inpainting lavorerà su tutta l’immagine, indipendentemente dalla maschera.&lt;br /&gt;
*&#039;&#039;&#039;Only masked&#039;&#039;&#039;: l’algoritmo di inpainting lavorerà solo sulle aree mascherate dell’immagine.&lt;br /&gt;
*&#039;&#039;&#039;Only masked padding, pixels&#039;&#039;&#039;: permette di specificare un numero di pixel intorno all’area mascherata che l’algoritmo di inpainting dovrebbe considerare. Ad esempio, se si imposta il parametro a 10 pixel, l’algoritmo lavorerà sull’area mascherata più un contorno di 10 pixel attorno ad essa.&lt;br /&gt;
&#039;&#039;&#039;Soft inpainting&#039;&#039;&#039;: aggiunge in modo naturale e fluido nuovi contenuti che si fondono con l&#039;immagine originale.&lt;br /&gt;
&lt;br /&gt;
=Sperimentazioni=&lt;br /&gt;
==Img2img==&lt;br /&gt;
In questo caso, bisognerà inserire un&#039;immagine all&#039;interno dell&#039;interfaccia. In seguito, si inserirà un prompt per determinare in che modo si vuole modificare l&#039;immagine originale. In più, si possono cambiare i parametri che ritroviamo anche nella dashboard di [[Txt2img (Stable Diffusion)]]. Sotto l&#039;immagine che verrà generata apparirà un riassunto dei valori dei parametri inseriti.&lt;br /&gt;
&lt;br /&gt;
[[File:Robotic_cat1.png|600x600px]]&lt;br /&gt;
Prompt: Robotic cat made of Glass&lt;br /&gt;
&lt;br /&gt;
==Sketch==&lt;br /&gt;
In questo esperimento gli occhi del gatto sono stati colorati di azzurro per far comprendere al modello che l&#039;immagine richiesta dovrà presentare non solo un gatto robotico di vetro, ma anche degli occhi luminosi con quel determinato colore.&lt;br /&gt;
&lt;br /&gt;
[[File:Robotic_cat2.png|600x600px]]&lt;br /&gt;
Prompt: Robotic cat made of Glass&lt;br /&gt;
&lt;br /&gt;
==Inpaint==&lt;br /&gt;
In questo caso, l&#039;immagine originale viene rigenerata soltanto con le aree che si vogliono modificare/correggere. Inoltre, sarà necessario comporre un prompt con il risultato desiderato.&lt;br /&gt;
&lt;br /&gt;
[[File:Cat_ears.png|600x600px]]&lt;br /&gt;
Prompt: Cat ears made of metal&lt;br /&gt;
&lt;br /&gt;
==Inpaint sketch==&lt;br /&gt;
Questa funzione è servita per modificare il risultato generato dalla funzione &amp;quot;Inpaint&amp;quot;. In questo caso, è stata disegnata sopra l&#039;immagine una sciarpa rossa che dovrà fondersi al risultato precedente.&lt;br /&gt;
&lt;br /&gt;
[[File:Cat_scarf.png|600x600px]]&lt;br /&gt;
prompt: Red scarf&lt;br /&gt;
&lt;br /&gt;
[[Category:strumento]]&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=File:Funzagg.png&amp;diff=1472</id>
		<title>File:Funzagg.png</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=File:Funzagg.png&amp;diff=1472"/>
		<updated>2024-03-21T08:56:41Z</updated>

		<summary type="html">&lt;p&gt;Stefano: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Img2img&amp;diff=1466</id>
		<title>Img2img</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Img2img&amp;diff=1466"/>
		<updated>2024-03-20T14:30:14Z</updated>

		<summary type="html">&lt;p&gt;Stefano: /* Overview dell&amp;#039;interfaccia */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Img2img è uno strumento in [[Stable Diffusion]] che genera nuove immagini a partire da &#039;&#039;&#039;un’immagine di input e un prompt di testo corrispondente&#039;&#039;&#039;. L’immagine di output conserva il &#039;&#039;&#039;colore originale&#039;&#039;&#039; e la &#039;&#039;&#039;composizione&#039;&#039;&#039; dell’immagine di input. Questo strumento può trasformare i disegni più semplici in capolavori visivamente sorprendenti.&lt;br /&gt;
&lt;br /&gt;
=Overview dell&#039;interfaccia=&lt;br /&gt;
[[File:img2img.png|700px]]&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Sketch&#039;&#039;&#039;: è un’opzione che permette di disegnare direttamente sul canvas dell’interfaccia utente. Questo può essere particolarmente utile quando si utilizza la funzione img2img, poiché consente di creare un’immagine di input personalizzata per la generazione dell’immagine. Si può caricare un’immagine di sfondo sul canvas e poi utilizzare lo strumento &amp;quot;Sketch&amp;quot; per disegnare o aggiungere dettagli.&lt;br /&gt;
* &#039;&#039;&#039;Inpaint&#039;&#039;&#039;: è una funzione che consente di correggere piccoli difetti in un’immagine. Questo processo, implica l’uso di un modello di diffusione per rigenerare parti specifiche dell’immagine. Utilizzando lo strumento “pennello” si crea una maschera sull’area che si desidera rigenerare. Questa funzione può essere particolarmente utile per correggere specifiche aree senza dover rigenerare l’intera immagine.&lt;br /&gt;
* &#039;&#039;&#039;Inpaint sketch&#039;&#039;&#039;: è una funzione che combina le funzionalità di “Sketch” e “Inpaint”. Permette di disegnare o schizzare direttamente sull’immagine di input e poi utilizzare la funzione “Inpaint” per rigenerare le parti dell’immagine che sono state modificate dallo schizzo. Per esempio, può servire quando si desidera fare piccole modifiche a un’immagine esistente senza dover rigenerarla.&lt;br /&gt;
* &#039;&#039;&#039;Inpaint&#039;&#039;&#039; &#039;&#039;&#039;upload&#039;&#039;&#039;: è una funzione che permette di caricare una maschera di &amp;quot;inpainting&amp;quot; personalizzata, piuttosto che disegnarla direttamente nell’interfaccia utente. Questa può essere utile per creare una maschera più complessa o dettagliata per l’inpainting. Dopo aver caricato la maschera, Stable Diffusion la utilizzerà per determinare quali parti dell’immagine rigenerare.&lt;br /&gt;
* &#039;&#039;&#039;Batch&#039;&#039;&#039;: è una funzione che permette di processare più immagini contemporaneamente. Può essere d&#039;aiuto quando si desidera applicare la stessa operazione, come img2img, a un intero set di immagini.&lt;br /&gt;
* &#039;&#039;&#039;Copy image to&#039;&#039;&#039;: Questa opzione permette di scegliere dove si desidera copiare l&#039;immagine processata tra le diverse funzioni disponibili.&lt;br /&gt;
* &#039;&#039;&#039;Soft inpainting&#039;&#039;&#039;: è una funzione che consente di rigenerare parti di un’immagine in modo più fluido e naturale. A differenza dell’inpainting standard, che utilizza una maschera binaria per determinare quali parti dell’immagine rigenerare, Soft Inpainting utilizza una maschera in scala di grigi per creare una transizione più morbida tra le aree rigenerate e il resto dell’immagine. Questo può portare a risultati più naturali, soprattutto quando si rigenerano aree complesse o dettagliate.&lt;br /&gt;
* &#039;&#039;&#039;Resize mode&#039;&#039;&#039;&lt;br /&gt;
** &#039;&#039;&#039;Just resize&#039;&#039;&#039;: Cambia solo le dimensioni dell&#039;immagine senza modificarne le proporzioni.&lt;br /&gt;
** &#039;&#039;&#039;Crop and resize&#039;&#039;&#039;: Ritaglia e cambia le dimensioni dell&#039;immagine per adattarla a specifiche proporzioni.&lt;br /&gt;
** &#039;&#039;&#039;Resize and fill&#039;&#039;&#039;: Cambia le dimensioni dell&#039;immagine e riempie lo spazio aggiuntivo per mantenere le proporzioni originali.&lt;br /&gt;
** &#039;&#039;&#039;Just resize (latent upscale)&#039;&#039;&#039;: Modifica le dimensioni dell&#039;immagine utilizzando una tecnica di upscaling che mantiene la qualità dell&#039;immagine originale.&lt;br /&gt;
&lt;br /&gt;
=Funzionalità aggiuntive=&lt;br /&gt;
&#039;&#039;&#039;Inpaint masked&#039;&#039;&#039;: Questa opzione significa che la funzione lavorerà per riempire o “dipingere” le aree mascherate dell’immagine. In altre parole, le aree mascherate dell’immagine saranno sostituite con nuovi pixel generati dall’algoritmo di inpainting.&lt;br /&gt;
&#039;&#039;&#039;Inpaint not masked&#039;&#039;&#039;: Questa opzione indica che la funzione lavorerà sulle aree non mascherate, lasciando intatte le parti mascherate. Quindi, solo i pixel non mascherati dell’immagine saranno modificati dall’algoritmo di inpainting.&lt;br /&gt;
&#039;&#039;&#039;Masked blur&#039;&#039;&#039;: Questo parametro consente di regolare il livello di sfocatura applicato alla maschera di un&#039;immagine, sfumandola, e creando una transizione più morbida e naturale tra le aree mascherate e non mascherate. Un valore di Mask blur più alto corrisponde a una transizione più morbida (o sfocata) tra le aree, mentre un valore più basso produce una transizione più netta.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Masked content&#039;&#039;&#039;: Controlla in quale modo l&#039;area mascherata viene inizializzata. Di seguito vengono elencate le diverse opzioni di inizializzazione.&lt;br /&gt;
*&#039;&#039;&#039;Fill&#039;&#039;&#039;: inizializza con un&#039;immagine molto sfocata dell&#039;originale.&lt;br /&gt;
*&#039;&#039;&#039;Original&#039;&#039;&#039;: Non modificato.&lt;br /&gt;
*&#039;&#039;&#039;Latent noise&#039;&#039;&#039;: l&#039;area mascherata inizializzata con &amp;quot;fill&amp;quot; e rumore casuale viene aggiunta allo spazio latente.&lt;br /&gt;
*&#039;&#039;&#039;Latent nothing&#039;&#039;&#039;: come il latent noise, tranne che non viene aggiunto rumore allo spazio latente.&lt;br /&gt;
&#039;&#039;&#039;Inpaint area&#039;&#039;&#039;: permette di scegliere l’area dell’immagine su cui l’algoritmo di inpainting dovrà lavorare. Di seguito vengono elencati i vari parametri relativi.&lt;br /&gt;
*&#039;&#039;&#039;Whole picture&#039;&#039;&#039;: Selezionando questa opzione, l’algoritmo di inpainting lavorerà su tutta l’immagine, indipendentemente dalla maschera.&lt;br /&gt;
*&#039;&#039;&#039;Only masked&#039;&#039;&#039;: l’algoritmo di inpainting lavorerà solo sulle aree mascherate dell’immagine.&lt;br /&gt;
*&#039;&#039;&#039;Only masked padding, pixels&#039;&#039;&#039;: permette di specificare un numero di pixel intorno all’area mascherata che l’algoritmo di inpainting dovrebbe considerare. Ad esempio, se si imposta il parametro a 10 pixel, l’algoritmo lavorerà sull’area mascherata più un contorno di 10 pixel attorno ad essa.&lt;br /&gt;
&#039;&#039;&#039;Soft inpainting&#039;&#039;&#039;: aggiunge in modo naturale e fluido nuovi contenuti che si fondono con l&#039;immagine originale.&lt;br /&gt;
&lt;br /&gt;
=Sperimentazioni=&lt;br /&gt;
==Img2img==&lt;br /&gt;
In questo caso, bisognerà inserire un&#039;immagine all&#039;interno dell&#039;interfaccia. In seguito, si inserirà un prompt per determinare in che modo si vuole modificare l&#039;immagine originale. In più, si possono cambiare i parametri che ritroviamo anche nella dashboard di [[Txt2img (Stable Diffusion)]]. Sotto l&#039;immagine che verrà generata apparirà un riassunto dei valori dei parametri inseriti.&lt;br /&gt;
&lt;br /&gt;
[[File:Robotic_cat1.png|600x600px]]&lt;br /&gt;
Prompt: Robotic cat made of Glass&lt;br /&gt;
&lt;br /&gt;
==Sketch==&lt;br /&gt;
In questo esperimento gli occhi del gatto sono stati colorati di azzurro per far comprendere al modello che l&#039;immagine richiesta dovrà presentare non solo un gatto robotico di vetro, ma anche degli occhi luminosi con quel determinato colore.&lt;br /&gt;
&lt;br /&gt;
[[File:Robotic_cat2.png|600x600px]]&lt;br /&gt;
Prompt: Robotic cat made of Glass&lt;br /&gt;
&lt;br /&gt;
==Inpaint==&lt;br /&gt;
In questo caso, l&#039;immagine originale viene rigenerata soltanto con le aree che si vogliono modificare/correggere. Inoltre, sarà necessario comporre un prompt con il risultato desiderato.&lt;br /&gt;
&lt;br /&gt;
[[File:Cat_ears.png|600x600px]]&lt;br /&gt;
Prompt: Cat ears made of metal&lt;br /&gt;
&lt;br /&gt;
==Inpaint sketch==&lt;br /&gt;
Questa funzione è servita per modificare il risultato generato dalla funzione &amp;quot;Inpaint&amp;quot;. In questo caso, è stata disegnata sopra l&#039;immagine una sciarpa rossa che dovrà fondersi al risultato precedente.&lt;br /&gt;
&lt;br /&gt;
[[File:Cat_scarf.png|600x600px]]&lt;br /&gt;
prompt: Red scarf&lt;br /&gt;
&lt;br /&gt;
[[Category:strumento]]&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Img2img&amp;diff=1459</id>
		<title>Img2img</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Img2img&amp;diff=1459"/>
		<updated>2024-03-20T14:13:44Z</updated>

		<summary type="html">&lt;p&gt;Stefano: /* Funzionalità aggiuntive */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Img2img è uno strumento in [[Stable Diffusion]] che genera nuove immagini a partire da &#039;&#039;&#039;un’immagine di input e un prompt di testo corrispondente&#039;&#039;&#039;. L’immagine di output conserva il &#039;&#039;&#039;colore originale&#039;&#039;&#039; e la &#039;&#039;&#039;composizione&#039;&#039;&#039; dell’immagine di input. Questo strumento può trasformare i disegni più semplici in capolavori visivamente sorprendenti.&lt;br /&gt;
&lt;br /&gt;
=Overview dell&#039;interfaccia=&lt;br /&gt;
[[File:img2img.png|700px]]&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Sketch&#039;&#039;&#039;: è un’opzione che permette di disegnare direttamente sul canvas dell’interfaccia utente. Questo può essere particolarmente utile quando si utilizza la funzione img2img, poiché consente di creare un’immagine di input personalizzata per la generazione dell’immagine. Si può caricare un’immagine di sfondo sul canvas e poi utilizzare lo strumento &amp;quot;Sketch&amp;quot; per disegnare o aggiungere dettagli.&lt;br /&gt;
* &#039;&#039;&#039;Inpaint&#039;&#039;&#039;: è una funzione che consente di correggere piccoli difetti in un’immagine. Questo processo, implica l’uso di un modello di diffusione per rigenerare parti specifiche dell’immagine. Utilizzando lo strumento “pennello” si crea una maschera sull’area che si desidera rigenerare. Questa funzione può essere particolarmente utile per correggere specifiche aree senza dover rigenerare l’intera immagine.&lt;br /&gt;
* &#039;&#039;&#039;Inpaintsketch&#039;&#039;&#039;: è una funzione che combina le funzionalità di “Sketch” e “Inpaint”. Permette di disegnare o schizzare direttamente sull’immagine di input e poi utilizzare la funzione “Inpaint” per rigenerare le parti dell’immagine che sono state modificate dallo schizzo. Per esempio, può servire quando si desidera fare piccole modifiche a un’immagine esistente senza dover rigenerarla.&lt;br /&gt;
* &#039;&#039;&#039;Inpaint&#039;&#039;&#039; &#039;&#039;&#039;upload&#039;&#039;&#039;: è una funzione che permette di caricare una maschera di &amp;quot;inpainting&amp;quot; personalizzata, piuttosto che disegnarla direttamente nell’interfaccia utente. Questa può essere utile per creare una maschera più complessa o dettagliata per l’inpainting. Dopo aver caricato la maschera, Stable Diffusion la utilizzerà per determinare quali parti dell’immagine rigenerare.&lt;br /&gt;
* &#039;&#039;&#039;Batch&#039;&#039;&#039;: è una funzione che permette di processare più immagini contemporaneamente. Può essere d&#039;aiuto quando si desidera applicare la stessa operazione, come img2img, a un intero set di immagini.&lt;br /&gt;
* &#039;&#039;&#039;Copy image to&#039;&#039;&#039;: Questa opzione permette di scegliere dove si desidera copiare l&#039;immagine processata tra le diverse funzioni disponibili.&lt;br /&gt;
* &#039;&#039;&#039;Soft inpainting&#039;&#039;&#039;: è una funzione che consente di rigenerare parti di un’immagine in modo più fluido e naturale. A differenza dell’inpainting standard, che utilizza una maschera binaria per determinare quali parti dell’immagine rigenerare, Soft Inpainting utilizza una maschera in scala di grigi per creare una transizione più morbida tra le aree rigenerate e il resto dell’immagine. Questo può portare a risultati più naturali, soprattutto quando si rigenerano aree complesse o dettagliate.&lt;br /&gt;
* &#039;&#039;&#039;Resize mode&#039;&#039;&#039;&lt;br /&gt;
** &#039;&#039;&#039;Just resize&#039;&#039;&#039;: Cambia solo le dimensioni dell&#039;immagine senza modificarne le proporzioni.&lt;br /&gt;
** &#039;&#039;&#039;Crop and resize&#039;&#039;&#039;: Ritaglia e cambia le dimensioni dell&#039;immagine per adattarla a specifiche proporzioni.&lt;br /&gt;
** &#039;&#039;&#039;Resize and fill&#039;&#039;&#039;: Cambia le dimensioni dell&#039;immagine e riempie lo spazio aggiuntivo per mantenere le proporzioni originali.&lt;br /&gt;
** &#039;&#039;&#039;Just resize (latent upscale)&#039;&#039;&#039;: Modifica le dimensioni dell&#039;immagine utilizzando una tecnica di upscaling che mantiene la qualità dell&#039;immagine originale.&lt;br /&gt;
&lt;br /&gt;
=Funzionalità aggiuntive=&lt;br /&gt;
&#039;&#039;&#039;Inpaint masked&#039;&#039;&#039;: Questa opzione significa che la funzione lavorerà per riempire o “dipingere” le aree mascherate dell’immagine. In altre parole, le aree mascherate dell’immagine saranno sostituite con nuovi pixel generati dall’algoritmo di inpainting.&lt;br /&gt;
&#039;&#039;&#039;Inpaint not masked&#039;&#039;&#039;: Questa opzione indica che la funzione lavorerà sulle aree non mascherate, lasciando intatte le parti mascherate. Quindi, solo i pixel non mascherati dell’immagine saranno modificati dall’algoritmo di inpainting.&lt;br /&gt;
&#039;&#039;&#039;Masked blur&#039;&#039;&#039;: Questo parametro consente di regolare il livello di sfocatura applicato alla maschera di un&#039;immagine, sfumandola, e creando una transizione più morbida e naturale tra le aree mascherate e non mascherate. Un valore di Mask blur più alto corrisponde a una transizione più morbida (o sfocata) tra le aree, mentre un valore più basso produce una transizione più netta.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Masked content&#039;&#039;&#039;: Controlla in quale modo l&#039;area mascherata viene inizializzata. Di seguito vengono elencate le diverse opzioni di inizializzazione.&lt;br /&gt;
*&#039;&#039;&#039;Fill&#039;&#039;&#039;: inizializza con un&#039;immagine molto sfocata dell&#039;originale.&lt;br /&gt;
*&#039;&#039;&#039;Original&#039;&#039;&#039;: Non modificato.&lt;br /&gt;
*&#039;&#039;&#039;Latent noise&#039;&#039;&#039;: l&#039;area mascherata inizializzata con &amp;quot;fill&amp;quot; e rumore casuale viene aggiunta allo spazio latente.&lt;br /&gt;
*&#039;&#039;&#039;Latent nothing&#039;&#039;&#039;: come il latent noise, tranne che non viene aggiunto rumore allo spazio latente.&lt;br /&gt;
&#039;&#039;&#039;Inpaint area&#039;&#039;&#039;: permette di scegliere l’area dell’immagine su cui l’algoritmo di inpainting dovrà lavorare. Di seguito vengono elencati i vari parametri relativi.&lt;br /&gt;
*&#039;&#039;&#039;Whole picture&#039;&#039;&#039;: Selezionando questa opzione, l’algoritmo di inpainting lavorerà su tutta l’immagine, indipendentemente dalla maschera.&lt;br /&gt;
*&#039;&#039;&#039;Only masked&#039;&#039;&#039;: l’algoritmo di inpainting lavorerà solo sulle aree mascherate dell’immagine.&lt;br /&gt;
*&#039;&#039;&#039;Only masked padding, pixels&#039;&#039;&#039;: permette di specificare un numero di pixel intorno all’area mascherata che l’algoritmo di inpainting dovrebbe considerare. Ad esempio, se si imposta il parametro a 10 pixel, l’algoritmo lavorerà sull’area mascherata più un contorno di 10 pixel attorno ad essa.&lt;br /&gt;
&#039;&#039;&#039;Soft inpainting&#039;&#039;&#039;: aggiunge in modo naturale e fluido nuovi contenuti che si fondono con l&#039;immagine originale.&lt;br /&gt;
&lt;br /&gt;
=Sperimentazioni=&lt;br /&gt;
==Img2img==&lt;br /&gt;
In questo caso, bisognerà inserire un&#039;immagine all&#039;interno dell&#039;interfaccia. In seguito, si inserirà un prompt per determinare in che modo si vuole modificare l&#039;immagine originale. In più, si possono cambiare i parametri che ritroviamo anche nella dashboard di [[Txt2img (Stable Diffusion)]]. Sotto l&#039;immagine che verrà generata apparirà un riassunto dei valori dei parametri inseriti.&lt;br /&gt;
&lt;br /&gt;
[[File:Robotic_cat1.png|600x600px]]&lt;br /&gt;
Prompt: Robotic cat made of Glass&lt;br /&gt;
&lt;br /&gt;
==Sketch==&lt;br /&gt;
In questo esperimento gli occhi del gatto sono stati colorati di azzurro per far comprendere al modello che l&#039;immagine richiesta dovrà presentare non solo un gatto robotico di vetro, ma anche degli occhi luminosi con quel determinato colore.&lt;br /&gt;
&lt;br /&gt;
[[File:Robotic_cat2.png|600x600px]]&lt;br /&gt;
Prompt: Robotic cat made of Glass&lt;br /&gt;
&lt;br /&gt;
==Inpaint==&lt;br /&gt;
In questo caso, l&#039;immagine originale viene rigenerata soltanto con le aree che si vogliono modificare/correggere. Inoltre, sarà necessario comporre un prompt con il risultato desiderato.&lt;br /&gt;
&lt;br /&gt;
[[File:Cat_ears.png|600x600px]]&lt;br /&gt;
Prompt: Cat ears made of metal&lt;br /&gt;
&lt;br /&gt;
==Inpaint sketch==&lt;br /&gt;
Questa funzione è servita per modificare il risultato generato dalla funzione &amp;quot;Inpaint&amp;quot;. In questo caso, è stata disegnata sopra l&#039;immagine una sciarpa rossa che dovrà fondersi al risultato precedente.&lt;br /&gt;
&lt;br /&gt;
[[File:Cat_scarf.png|600x600px]]&lt;br /&gt;
prompt: Red scarf&lt;br /&gt;
&lt;br /&gt;
[[Category:strumento]]&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Img2img&amp;diff=1458</id>
		<title>Img2img</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Img2img&amp;diff=1458"/>
		<updated>2024-03-20T14:07:45Z</updated>

		<summary type="html">&lt;p&gt;Stefano: /* Funzionalità aggiuntive */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Img2img è uno strumento in [[Stable Diffusion]] che genera nuove immagini a partire da &#039;&#039;&#039;un’immagine di input e un prompt di testo corrispondente&#039;&#039;&#039;. L’immagine di output conserva il &#039;&#039;&#039;colore originale&#039;&#039;&#039; e la &#039;&#039;&#039;composizione&#039;&#039;&#039; dell’immagine di input. Questo strumento può trasformare i disegni più semplici in capolavori visivamente sorprendenti.&lt;br /&gt;
&lt;br /&gt;
=Overview dell&#039;interfaccia=&lt;br /&gt;
[[File:img2img.png|700px]]&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Sketch&#039;&#039;&#039;: è un’opzione che permette di disegnare direttamente sul canvas dell’interfaccia utente. Questo può essere particolarmente utile quando si utilizza la funzione img2img, poiché consente di creare un’immagine di input personalizzata per la generazione dell’immagine. Si può caricare un’immagine di sfondo sul canvas e poi utilizzare lo strumento &amp;quot;Sketch&amp;quot; per disegnare o aggiungere dettagli.&lt;br /&gt;
* &#039;&#039;&#039;Inpaint&#039;&#039;&#039;: è una funzione che consente di correggere piccoli difetti in un’immagine. Questo processo, implica l’uso di un modello di diffusione per rigenerare parti specifiche dell’immagine. Utilizzando lo strumento “pennello” si crea una maschera sull’area che si desidera rigenerare. Questa funzione può essere particolarmente utile per correggere specifiche aree senza dover rigenerare l’intera immagine.&lt;br /&gt;
* &#039;&#039;&#039;Inpaintsketch&#039;&#039;&#039;: è una funzione che combina le funzionalità di “Sketch” e “Inpaint”. Permette di disegnare o schizzare direttamente sull’immagine di input e poi utilizzare la funzione “Inpaint” per rigenerare le parti dell’immagine che sono state modificate dallo schizzo. Per esempio, può servire quando si desidera fare piccole modifiche a un’immagine esistente senza dover rigenerarla.&lt;br /&gt;
* &#039;&#039;&#039;Inpaint&#039;&#039;&#039; &#039;&#039;&#039;upload&#039;&#039;&#039;: è una funzione che permette di caricare una maschera di &amp;quot;inpainting&amp;quot; personalizzata, piuttosto che disegnarla direttamente nell’interfaccia utente. Questa può essere utile per creare una maschera più complessa o dettagliata per l’inpainting. Dopo aver caricato la maschera, Stable Diffusion la utilizzerà per determinare quali parti dell’immagine rigenerare.&lt;br /&gt;
* &#039;&#039;&#039;Batch&#039;&#039;&#039;: è una funzione che permette di processare più immagini contemporaneamente. Può essere d&#039;aiuto quando si desidera applicare la stessa operazione, come img2img, a un intero set di immagini.&lt;br /&gt;
* &#039;&#039;&#039;Copy image to&#039;&#039;&#039;: Questa opzione permette di scegliere dove si desidera copiare l&#039;immagine processata tra le diverse funzioni disponibili.&lt;br /&gt;
* &#039;&#039;&#039;Soft inpainting&#039;&#039;&#039;: è una funzione che consente di rigenerare parti di un’immagine in modo più fluido e naturale. A differenza dell’inpainting standard, che utilizza una maschera binaria per determinare quali parti dell’immagine rigenerare, Soft Inpainting utilizza una maschera in scala di grigi per creare una transizione più morbida tra le aree rigenerate e il resto dell’immagine. Questo può portare a risultati più naturali, soprattutto quando si rigenerano aree complesse o dettagliate.&lt;br /&gt;
* &#039;&#039;&#039;Resize mode&#039;&#039;&#039;&lt;br /&gt;
** &#039;&#039;&#039;Just resize&#039;&#039;&#039;: Cambia solo le dimensioni dell&#039;immagine senza modificarne le proporzioni.&lt;br /&gt;
** &#039;&#039;&#039;Crop and resize&#039;&#039;&#039;: Ritaglia e cambia le dimensioni dell&#039;immagine per adattarla a specifiche proporzioni.&lt;br /&gt;
** &#039;&#039;&#039;Resize and fill&#039;&#039;&#039;: Cambia le dimensioni dell&#039;immagine e riempie lo spazio aggiuntivo per mantenere le proporzioni originali.&lt;br /&gt;
** &#039;&#039;&#039;Just resize (latent upscale)&#039;&#039;&#039;: Modifica le dimensioni dell&#039;immagine utilizzando una tecnica di upscaling che mantiene la qualità dell&#039;immagine originale.&lt;br /&gt;
&lt;br /&gt;
=Funzionalità aggiuntive=&lt;br /&gt;
&#039;&#039;&#039;Inpaint masked&#039;&#039;&#039;: Questa opzione significa che la funzione lavorerà per riempire o “dipingere” le aree mascherate dell’immagine. In altre parole, le aree mascherate dell’immagine saranno sostituite con nuovi pixel generati dall’algoritmo di inpainting.&lt;br /&gt;
&#039;&#039;&#039;Inpaint not masked&#039;&#039;&#039;: Questa opzione indica che la funzione lavorerà sulle aree non mascherate, lasciando intatte le parti mascherate. Quindi, solo i pixel non mascherati dell’immagine saranno modificati dall’algoritmo di inpainting.&lt;br /&gt;
&#039;&#039;&#039;Masked blur&#039;&#039;&#039;: Questo parametro consente di regolare il livello di sfocatura applicato alla maschera di un&#039;immagine, sfumandola, e creando una transizione più morbida e naturale tra le aree mascherate e non mascherate. Un valore di Mask blur più alto corrisponde a una transizione più morbida (o sfocata) tra le aree, mentre un valore più basso produce una transizione più netta.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Masked content&#039;&#039;&#039;: Controlla in quale modo l&#039;area mascherata viene inizializzata. Di seguito vengono elencate le diverse opzioni di inizializzazione.&lt;br /&gt;
*&#039;&#039;&#039;Fill&#039;&#039;&#039;: inizializza con un&#039;immagine molto sfocata dell&#039;originale.&lt;br /&gt;
*&#039;&#039;&#039;Original&#039;&#039;&#039;: Non modificato.&lt;br /&gt;
*&#039;&#039;&#039;Latent noise&#039;&#039;&#039;: l&#039;area mascherata inizializzata con &amp;quot;fill&amp;quot; e rumore casuale viene aggiunta allo spazio latente.&lt;br /&gt;
*&#039;&#039;&#039;Latent nothing&#039;&#039;&#039;: come il latent noise, tranne che non viene aggiunto rumore allo spazio latente.&lt;br /&gt;
&#039;&#039;&#039;Inpaint area&#039;&#039;&#039;: permette di scegliere l’area dell’immagine su cui l’algoritmo di inpainting dovrà lavorare. Di seguito vengono elencati i vari parametri relativi.&lt;br /&gt;
*&#039;&#039;&#039;Whole picture&#039;&#039;&#039;: Selezionando questa opzione, l’algoritmo di inpainting lavorerà su tutta l’immagine, indipendentemente dalla maschera.&lt;br /&gt;
*&#039;&#039;&#039;Only masked&#039;&#039;&#039;: l’algoritmo di inpainting lavorerà solo sulle aree mascherate dell’immagine.&lt;br /&gt;
*&#039;&#039;&#039;Only masked padding, pixels&#039;&#039;&#039;: permette di specificare un numero di pixel intorno all’area mascherata che l’algoritmo di inpainting dovrebbe considerare. Ad esempio, se si imposta il parametro a 10 pixel, l’algoritmo lavorerà sull’area mascherata più un contorno di 10 pixel attorno ad essa.&lt;br /&gt;
&lt;br /&gt;
=Sperimentazioni=&lt;br /&gt;
==Img2img==&lt;br /&gt;
In questo caso, bisognerà inserire un&#039;immagine all&#039;interno dell&#039;interfaccia. In seguito, si inserirà un prompt per determinare in che modo si vuole modificare l&#039;immagine originale. In più, si possono cambiare i parametri che ritroviamo anche nella dashboard di [[Txt2img (Stable Diffusion)]]. Sotto l&#039;immagine che verrà generata apparirà un riassunto dei valori dei parametri inseriti.&lt;br /&gt;
&lt;br /&gt;
[[File:Robotic_cat1.png|600x600px]]&lt;br /&gt;
Prompt: Robotic cat made of Glass&lt;br /&gt;
&lt;br /&gt;
==Sketch==&lt;br /&gt;
In questo esperimento gli occhi del gatto sono stati colorati di azzurro per far comprendere al modello che l&#039;immagine richiesta dovrà presentare non solo un gatto robotico di vetro, ma anche degli occhi luminosi con quel determinato colore.&lt;br /&gt;
&lt;br /&gt;
[[File:Robotic_cat2.png|600x600px]]&lt;br /&gt;
Prompt: Robotic cat made of Glass&lt;br /&gt;
&lt;br /&gt;
==Inpaint==&lt;br /&gt;
In questo caso, l&#039;immagine originale viene rigenerata soltanto con le aree che si vogliono modificare/correggere. Inoltre, sarà necessario comporre un prompt con il risultato desiderato.&lt;br /&gt;
&lt;br /&gt;
[[File:Cat_ears.png|600x600px]]&lt;br /&gt;
Prompt: Cat ears made of metal&lt;br /&gt;
&lt;br /&gt;
==Inpaint sketch==&lt;br /&gt;
Questa funzione è servita per modificare il risultato generato dalla funzione &amp;quot;Inpaint&amp;quot;. In questo caso, è stata disegnata sopra l&#039;immagine una sciarpa rossa che dovrà fondersi al risultato precedente.&lt;br /&gt;
&lt;br /&gt;
[[File:Cat_scarf.png|600x600px]]&lt;br /&gt;
prompt: Red scarf&lt;br /&gt;
&lt;br /&gt;
[[Category:strumento]]&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Img2img&amp;diff=1457</id>
		<title>Img2img</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Img2img&amp;diff=1457"/>
		<updated>2024-03-20T14:07:25Z</updated>

		<summary type="html">&lt;p&gt;Stefano: /* Funzionalità aggiuntive */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Img2img è uno strumento in [[Stable Diffusion]] che genera nuove immagini a partire da &#039;&#039;&#039;un’immagine di input e un prompt di testo corrispondente&#039;&#039;&#039;. L’immagine di output conserva il &#039;&#039;&#039;colore originale&#039;&#039;&#039; e la &#039;&#039;&#039;composizione&#039;&#039;&#039; dell’immagine di input. Questo strumento può trasformare i disegni più semplici in capolavori visivamente sorprendenti.&lt;br /&gt;
&lt;br /&gt;
=Overview dell&#039;interfaccia=&lt;br /&gt;
[[File:img2img.png|700px]]&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Sketch&#039;&#039;&#039;: è un’opzione che permette di disegnare direttamente sul canvas dell’interfaccia utente. Questo può essere particolarmente utile quando si utilizza la funzione img2img, poiché consente di creare un’immagine di input personalizzata per la generazione dell’immagine. Si può caricare un’immagine di sfondo sul canvas e poi utilizzare lo strumento &amp;quot;Sketch&amp;quot; per disegnare o aggiungere dettagli.&lt;br /&gt;
* &#039;&#039;&#039;Inpaint&#039;&#039;&#039;: è una funzione che consente di correggere piccoli difetti in un’immagine. Questo processo, implica l’uso di un modello di diffusione per rigenerare parti specifiche dell’immagine. Utilizzando lo strumento “pennello” si crea una maschera sull’area che si desidera rigenerare. Questa funzione può essere particolarmente utile per correggere specifiche aree senza dover rigenerare l’intera immagine.&lt;br /&gt;
* &#039;&#039;&#039;Inpaintsketch&#039;&#039;&#039;: è una funzione che combina le funzionalità di “Sketch” e “Inpaint”. Permette di disegnare o schizzare direttamente sull’immagine di input e poi utilizzare la funzione “Inpaint” per rigenerare le parti dell’immagine che sono state modificate dallo schizzo. Per esempio, può servire quando si desidera fare piccole modifiche a un’immagine esistente senza dover rigenerarla.&lt;br /&gt;
* &#039;&#039;&#039;Inpaint&#039;&#039;&#039; &#039;&#039;&#039;upload&#039;&#039;&#039;: è una funzione che permette di caricare una maschera di &amp;quot;inpainting&amp;quot; personalizzata, piuttosto che disegnarla direttamente nell’interfaccia utente. Questa può essere utile per creare una maschera più complessa o dettagliata per l’inpainting. Dopo aver caricato la maschera, Stable Diffusion la utilizzerà per determinare quali parti dell’immagine rigenerare.&lt;br /&gt;
* &#039;&#039;&#039;Batch&#039;&#039;&#039;: è una funzione che permette di processare più immagini contemporaneamente. Può essere d&#039;aiuto quando si desidera applicare la stessa operazione, come img2img, a un intero set di immagini.&lt;br /&gt;
* &#039;&#039;&#039;Copy image to&#039;&#039;&#039;: Questa opzione permette di scegliere dove si desidera copiare l&#039;immagine processata tra le diverse funzioni disponibili.&lt;br /&gt;
* &#039;&#039;&#039;Soft inpainting&#039;&#039;&#039;: è una funzione che consente di rigenerare parti di un’immagine in modo più fluido e naturale. A differenza dell’inpainting standard, che utilizza una maschera binaria per determinare quali parti dell’immagine rigenerare, Soft Inpainting utilizza una maschera in scala di grigi per creare una transizione più morbida tra le aree rigenerate e il resto dell’immagine. Questo può portare a risultati più naturali, soprattutto quando si rigenerano aree complesse o dettagliate.&lt;br /&gt;
* &#039;&#039;&#039;Resize mode&#039;&#039;&#039;&lt;br /&gt;
** &#039;&#039;&#039;Just resize&#039;&#039;&#039;: Cambia solo le dimensioni dell&#039;immagine senza modificarne le proporzioni.&lt;br /&gt;
** &#039;&#039;&#039;Crop and resize&#039;&#039;&#039;: Ritaglia e cambia le dimensioni dell&#039;immagine per adattarla a specifiche proporzioni.&lt;br /&gt;
** &#039;&#039;&#039;Resize and fill&#039;&#039;&#039;: Cambia le dimensioni dell&#039;immagine e riempie lo spazio aggiuntivo per mantenere le proporzioni originali.&lt;br /&gt;
** &#039;&#039;&#039;Just resize (latent upscale)&#039;&#039;&#039;: Modifica le dimensioni dell&#039;immagine utilizzando una tecnica di upscaling che mantiene la qualità dell&#039;immagine originale.&lt;br /&gt;
&lt;br /&gt;
=Funzionalità aggiuntive=&lt;br /&gt;
&#039;&#039;&#039;Inpaint masked&#039;&#039;&#039;: Questa opzione significa che la funzione lavorerà per riempire o “dipingere” le aree mascherate dell’immagine. In altre parole, le aree mascherate dell’immagine saranno sostituite con nuovi pixel generati dall’algoritmo di inpainting.&lt;br /&gt;
&#039;&#039;&#039;Inpaint not masked&#039;&#039;&#039;: Questa opzione indica che la funzione lavorerà sulle aree non mascherate, lasciando intatte le parti mascherate. Quindi, solo i pixel non mascherati dell’immagine saranno modificati dall’algoritmo di inpainting.&lt;br /&gt;
&#039;&#039;&#039;Masked blur&#039;&#039;&#039;: Questo parametro consente di regolare il livello di sfocatura applicato alla maschera di un&#039;immagine, sfumandola, e creando una transizione più morbida e naturale tra le aree mascherate e non mascherate. Un valore di Mask blur più alto corrisponde a una transizione più morbida (o sfocata) tra le aree, mentre un valore più basso produce una transizione più netta.&lt;br /&gt;
&#039;&#039;&#039;Masked content&#039;&#039;&#039;: Controlla in quale modo l&#039;area mascherata viene inizializzata. Di seguito vengono elencate le diverse opzioni di inizializzazione.&lt;br /&gt;
*&#039;&#039;&#039;Fill&#039;&#039;&#039;: inizializza con un&#039;immagine molto sfocata dell&#039;originale.&lt;br /&gt;
*&#039;&#039;&#039;Original&#039;&#039;&#039;: Non modificato.&lt;br /&gt;
*&#039;&#039;&#039;Latent noise&#039;&#039;&#039;: l&#039;area mascherata inizializzata con &amp;quot;fill&amp;quot; e rumore casuale viene aggiunta allo spazio latente.&lt;br /&gt;
*&#039;&#039;&#039;Latent nothing&#039;&#039;&#039;: come il latent noise, tranne che non viene aggiunto rumore allo spazio latente.&lt;br /&gt;
&#039;&#039;&#039;Inpaint area&#039;&#039;&#039;: permette di scegliere l’area dell’immagine su cui l’algoritmo di inpainting dovrà lavorare. Di seguito vengono elencati i vari parametri relativi.&lt;br /&gt;
*&#039;&#039;&#039;Whole picture&#039;&#039;&#039;: Selezionando questa opzione, l’algoritmo di inpainting lavorerà su tutta l’immagine, indipendentemente dalla maschera.&lt;br /&gt;
*&#039;&#039;&#039;Only masked&#039;&#039;&#039;: l’algoritmo di inpainting lavorerà solo sulle aree mascherate dell’immagine.&lt;br /&gt;
*&#039;&#039;&#039;Only masked padding, pixels&#039;&#039;&#039;: permette di specificare un numero di pixel intorno all’area mascherata che l’algoritmo di inpainting dovrebbe considerare. Ad esempio, se si imposta il parametro a 10 pixel, l’algoritmo lavorerà sull’area mascherata più un contorno di 10 pixel attorno ad essa.&lt;br /&gt;
&lt;br /&gt;
=Sperimentazioni=&lt;br /&gt;
==Img2img==&lt;br /&gt;
In questo caso, bisognerà inserire un&#039;immagine all&#039;interno dell&#039;interfaccia. In seguito, si inserirà un prompt per determinare in che modo si vuole modificare l&#039;immagine originale. In più, si possono cambiare i parametri che ritroviamo anche nella dashboard di [[Txt2img (Stable Diffusion)]]. Sotto l&#039;immagine che verrà generata apparirà un riassunto dei valori dei parametri inseriti.&lt;br /&gt;
&lt;br /&gt;
[[File:Robotic_cat1.png|600x600px]]&lt;br /&gt;
Prompt: Robotic cat made of Glass&lt;br /&gt;
&lt;br /&gt;
==Sketch==&lt;br /&gt;
In questo esperimento gli occhi del gatto sono stati colorati di azzurro per far comprendere al modello che l&#039;immagine richiesta dovrà presentare non solo un gatto robotico di vetro, ma anche degli occhi luminosi con quel determinato colore.&lt;br /&gt;
&lt;br /&gt;
[[File:Robotic_cat2.png|600x600px]]&lt;br /&gt;
Prompt: Robotic cat made of Glass&lt;br /&gt;
&lt;br /&gt;
==Inpaint==&lt;br /&gt;
In questo caso, l&#039;immagine originale viene rigenerata soltanto con le aree che si vogliono modificare/correggere. Inoltre, sarà necessario comporre un prompt con il risultato desiderato.&lt;br /&gt;
&lt;br /&gt;
[[File:Cat_ears.png|600x600px]]&lt;br /&gt;
Prompt: Cat ears made of metal&lt;br /&gt;
&lt;br /&gt;
==Inpaint sketch==&lt;br /&gt;
Questa funzione è servita per modificare il risultato generato dalla funzione &amp;quot;Inpaint&amp;quot;. In questo caso, è stata disegnata sopra l&#039;immagine una sciarpa rossa che dovrà fondersi al risultato precedente.&lt;br /&gt;
&lt;br /&gt;
[[File:Cat_scarf.png|600x600px]]&lt;br /&gt;
prompt: Red scarf&lt;br /&gt;
&lt;br /&gt;
[[Category:strumento]]&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Img2img&amp;diff=1453</id>
		<title>Img2img</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Img2img&amp;diff=1453"/>
		<updated>2024-03-20T13:15:01Z</updated>

		<summary type="html">&lt;p&gt;Stefano: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Img2img è uno strumento in [[Stable Diffusion]] che genera nuove immagini a partire da &#039;&#039;&#039;un’immagine di input e un prompt di testo corrispondente&#039;&#039;&#039;. L’immagine di output conserva il &#039;&#039;&#039;colore originale&#039;&#039;&#039; e la &#039;&#039;&#039;composizione&#039;&#039;&#039; dell’immagine di input. Questo strumento può trasformare i disegni più semplici in capolavori visivamente sorprendenti.&lt;br /&gt;
&lt;br /&gt;
=Overview dell&#039;interfaccia=&lt;br /&gt;
[[File:img2img.png|700px]]&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Sketch&#039;&#039;&#039;: è un’opzione che permette di disegnare direttamente sul canvas dell’interfaccia utente. Questo può essere particolarmente utile quando si utilizza la funzione img2img, poiché consente di creare un’immagine di input personalizzata per la generazione dell’immagine. Si può caricare un’immagine di sfondo sul canvas e poi utilizzare lo strumento &amp;quot;Sketch&amp;quot; per disegnare o aggiungere dettagli.&lt;br /&gt;
* &#039;&#039;&#039;Inpaint&#039;&#039;&#039;: è una funzione che consente di correggere piccoli difetti in un’immagine. Questo processo, implica l’uso di un modello di diffusione per rigenerare parti specifiche dell’immagine. Utilizzando lo strumento “pennello” si crea una maschera sull’area che si desidera rigenerare. Questa funzione può essere particolarmente utile per correggere specifiche aree senza dover rigenerare l’intera immagine.&lt;br /&gt;
* &#039;&#039;&#039;Inpaintsketch&#039;&#039;&#039;: è una funzione che combina le funzionalità di “Sketch” e “Inpaint”. Permette di disegnare o schizzare direttamente sull’immagine di input e poi utilizzare la funzione “Inpaint” per rigenerare le parti dell’immagine che sono state modificate dallo schizzo. Per esempio, può servire quando si desidera fare piccole modifiche a un’immagine esistente senza dover rigenerarla.&lt;br /&gt;
* &#039;&#039;&#039;Inpaint&#039;&#039;&#039; &#039;&#039;&#039;upload&#039;&#039;&#039;: è una funzione che permette di caricare una maschera di &amp;quot;inpainting&amp;quot; personalizzata, piuttosto che disegnarla direttamente nell’interfaccia utente. Questa può essere utile per creare una maschera più complessa o dettagliata per l’inpainting. Dopo aver caricato la maschera, Stable Diffusion la utilizzerà per determinare quali parti dell’immagine rigenerare.&lt;br /&gt;
* &#039;&#039;&#039;Batch&#039;&#039;&#039;: è una funzione che permette di processare più immagini contemporaneamente. Può essere d&#039;aiuto quando si desidera applicare la stessa operazione, come img2img, a un intero set di immagini.&lt;br /&gt;
* &#039;&#039;&#039;Copy image to&#039;&#039;&#039;: Questa opzione permette di scegliere dove si desidera copiare l&#039;immagine processata tra le diverse funzioni disponibili.&lt;br /&gt;
* &#039;&#039;&#039;Soft inpainting&#039;&#039;&#039;: è una funzione che consente di rigenerare parti di un’immagine in modo più fluido e naturale. A differenza dell’inpainting standard, che utilizza una maschera binaria per determinare quali parti dell’immagine rigenerare, Soft Inpainting utilizza una maschera in scala di grigi per creare una transizione più morbida tra le aree rigenerate e il resto dell’immagine. Questo può portare a risultati più naturali, soprattutto quando si rigenerano aree complesse o dettagliate.&lt;br /&gt;
* &#039;&#039;&#039;Resize mode&#039;&#039;&#039;&lt;br /&gt;
** &#039;&#039;&#039;Just resize&#039;&#039;&#039;: Cambia solo le dimensioni dell&#039;immagine senza modificarne le proporzioni.&lt;br /&gt;
** &#039;&#039;&#039;Crop and resize&#039;&#039;&#039;: Ritaglia e cambia le dimensioni dell&#039;immagine per adattarla a specifiche proporzioni.&lt;br /&gt;
** &#039;&#039;&#039;Resize and fill&#039;&#039;&#039;: Cambia le dimensioni dell&#039;immagine e riempie lo spazio aggiuntivo per mantenere le proporzioni originali.&lt;br /&gt;
** &#039;&#039;&#039;Just resize (latent upscale)&#039;&#039;&#039;: Modifica le dimensioni dell&#039;immagine utilizzando una tecnica di upscaling che mantiene la qualità dell&#039;immagine originale.&lt;br /&gt;
&lt;br /&gt;
=Funzionalità aggiuntive=&lt;br /&gt;
&#039;&#039;&#039;Inpaint masked&#039;&#039;&#039;: Questa opzione significa che la funzione lavorerà per riempire o “dipingere” le aree mascherate dell’immagine. In altre parole, le aree mascherate dell’immagine saranno sostituite con nuovi pixel generati dall’algoritmo di inpainting.&lt;br /&gt;
&#039;&#039;&#039;Inpaint not masked&#039;&#039;&#039;: Questa opzione indica che la funzione lavorerà sulle aree non mascherate, lasciando intatte le parti mascherate. Quindi, solo i pixel non mascherati dell’immagine saranno modificati dall’algoritmo di inpainting.&lt;br /&gt;
&lt;br /&gt;
=Sperimentazioni=&lt;br /&gt;
==Img2img==&lt;br /&gt;
In questo caso, bisognerà inserire un&#039;immagine all&#039;interno dell&#039;interfaccia. In seguito, si inserirà un prompt per determinare in che modo si vuole modificare l&#039;immagine originale. In più, si possono cambiare i parametri che ritroviamo anche nella dashboard di [[Txt2img (Stable Diffusion)]]. Sotto l&#039;immagine che verrà generata apparirà un riassunto dei valori dei parametri inseriti.&lt;br /&gt;
&lt;br /&gt;
[[File:Robotic_cat1.png|600x600px]]&lt;br /&gt;
Prompt: Robotic cat made of Glass&lt;br /&gt;
&lt;br /&gt;
==Sketch==&lt;br /&gt;
In questo esperimento gli occhi del gatto sono stati colorati di azzurro per far comprendere al modello che l&#039;immagine richiesta dovrà presentare non solo un gatto robotico di vetro, ma anche degli occhi luminosi con quel determinato colore.&lt;br /&gt;
&lt;br /&gt;
[[File:Robotic_cat2.png|600x600px]]&lt;br /&gt;
Prompt: Robotic cat made of Glass&lt;br /&gt;
&lt;br /&gt;
==Inpaint==&lt;br /&gt;
In questo caso, l&#039;immagine originale viene rigenerata soltanto con le aree che si vogliono modificare/correggere. Inoltre, sarà necessario comporre un prompt con il risultato desiderato.&lt;br /&gt;
&lt;br /&gt;
[[File:Cat_ears.png|600x600px]]&lt;br /&gt;
Prompt: Cat ears made of metal&lt;br /&gt;
&lt;br /&gt;
==Inpaint sketch==&lt;br /&gt;
Questa funzione è servita per modificare il risultato generato dalla funzione &amp;quot;Inpaint&amp;quot;. In questo caso, è stata disegnata sopra l&#039;immagine una sciarpa rossa che dovrà fondersi al risultato precedente.&lt;br /&gt;
&lt;br /&gt;
[[File:Cat_scarf.png|600x600px]]&lt;br /&gt;
prompt: Red scarf&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Img2img&amp;diff=1448</id>
		<title>Img2img</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Img2img&amp;diff=1448"/>
		<updated>2024-03-20T11:00:08Z</updated>

		<summary type="html">&lt;p&gt;Stefano: /* Inpaint sketch */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Img2img è uno strumento in [[Stable Diffusion]] che genera nuove immagini a partire da &#039;&#039;&#039;un’immagine di input e un prompt di testo corrispondente&#039;&#039;&#039;. L’immagine di output conserva il &#039;&#039;&#039;colore originale&#039;&#039;&#039; e la &#039;&#039;&#039;composizione&#039;&#039;&#039; dell’immagine di input. Questo strumento può trasformare i disegni più semplici in capolavori visivamente sorprendenti.&lt;br /&gt;
&lt;br /&gt;
=Overview dell&#039;interfaccia=&lt;br /&gt;
[[File:img2img.png|700px]]&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Sketch&#039;&#039;&#039;: è un’opzione che permette di disegnare direttamente sul canvas dell’interfaccia utente. Questo può essere particolarmente utile quando si utilizza la funzione img2img, poiché consente di creare un’immagine di input personalizzata per la generazione dell’immagine. Si può caricare un’immagine di sfondo sul canvas e poi utilizzare lo strumento &amp;quot;Sketch&amp;quot; per disegnare o aggiungere dettagli.&lt;br /&gt;
* &#039;&#039;&#039;Inpaint&#039;&#039;&#039;: è una funzione che consente di correggere piccoli difetti in un’immagine. Questo processo, implica l’uso di un modello di diffusione per rigenerare parti specifiche dell’immagine. Utilizzando lo strumento “pennello” si crea una maschera sull’area che si desidera rigenerare. Questa funzione può essere particolarmente utile per correggere specifiche aree senza dover rigenerare l’intera immagine.&lt;br /&gt;
* &#039;&#039;&#039;Inpaintsketch&#039;&#039;&#039;: è una funzione che combina le funzionalità di “Sketch” e “Inpaint”. Permette di disegnare o schizzare direttamente sull’immagine di input e poi utilizzare la funzione “Inpaint” per rigenerare le parti dell’immagine che sono state modificate dallo schizzo. Per esempio, può servire quando si desidera fare piccole modifiche a un’immagine esistente senza dover rigenerarla.&lt;br /&gt;
* &#039;&#039;&#039;Inpaint&#039;&#039;&#039; &#039;&#039;&#039;upload&#039;&#039;&#039;: è una funzione che permette di caricare una maschera di &amp;quot;inpainting&amp;quot; personalizzata, piuttosto che disegnarla direttamente nell’interfaccia utente. Questa può essere utile per creare una maschera più complessa o dettagliata per l’inpainting. Dopo aver caricato la maschera, Stable Diffusion la utilizzerà per determinare quali parti dell’immagine rigenerare.&lt;br /&gt;
* &#039;&#039;&#039;Batch&#039;&#039;&#039;: è una funzione che permette di processare più immagini contemporaneamente. Può essere d&#039;aiuto quando si desidera applicare la stessa operazione, come img2img, a un intero set di immagini.&lt;br /&gt;
* &#039;&#039;&#039;Copy image to&#039;&#039;&#039;: Questa opzione permette di scegliere dove si desidera copiare l&#039;immagine processata tra le diverse funzioni disponibili.&lt;br /&gt;
* &#039;&#039;&#039;Soft inpainting&#039;&#039;&#039;: è una funzione che consente di rigenerare parti di un’immagine in modo più fluido e naturale. A differenza dell’inpainting standard, che utilizza una maschera binaria per determinare quali parti dell’immagine rigenerare, Soft Inpainting utilizza una maschera in scala di grigi per creare una transizione più morbida tra le aree rigenerate e il resto dell’immagine. Questo può portare a risultati più naturali, soprattutto quando si rigenerano aree complesse o dettagliate.&lt;br /&gt;
* &#039;&#039;&#039;Resize mode&#039;&#039;&#039;&lt;br /&gt;
** &#039;&#039;&#039;Just resize&#039;&#039;&#039;: Cambia solo le dimensioni dell&#039;immagine senza modificarne le proporzioni.&lt;br /&gt;
** &#039;&#039;&#039;Crop and resize&#039;&#039;&#039;: Ritaglia e cambia le dimensioni dell&#039;immagine per adattarla a specifiche proporzioni.&lt;br /&gt;
** &#039;&#039;&#039;Resize and fill&#039;&#039;&#039;: Cambia le dimensioni dell&#039;immagine e riempie lo spazio aggiuntivo per mantenere le proporzioni originali.&lt;br /&gt;
** &#039;&#039;&#039;Just resize (latent upscale)&#039;&#039;&#039;: Modifica le dimensioni dell&#039;immagine utilizzando una tecnica di upscaling che mantiene la qualità dell&#039;immagine originale.&lt;br /&gt;
&lt;br /&gt;
=Sperimentazioni=&lt;br /&gt;
==Img2img==&lt;br /&gt;
In questo caso, bisognerà inserire un&#039;immagine all&#039;interno dell&#039;interfaccia. In seguito, si inserirà un prompt per determinare in che modo si vuole modificare l&#039;immagine originale. In più, si possono cambiare i parametri che ritroviamo anche nella dashboard di [[Txt2img (Stable Diffusion)]]. Sotto l&#039;immagine che verrà generata apparirà un riassunto dei valori dei parametri inseriti.&lt;br /&gt;
&lt;br /&gt;
[[File:Robotic_cat1.png|600x600px]]&lt;br /&gt;
Prompt: Robotic cat made of Glass&lt;br /&gt;
&lt;br /&gt;
==Sketch==&lt;br /&gt;
In questo esperimento gli occhi del gatto sono stati colorati di azzurro per far comprendere al modello che l&#039;immagine richiesta dovrà presentare non solo un gatto robotico di vetro, ma anche degli occhi luminosi con quel determinato colore.&lt;br /&gt;
&lt;br /&gt;
[[File:Robotic_cat2.png|600x600px]]&lt;br /&gt;
Prompt: Robotic cat made of Glass&lt;br /&gt;
&lt;br /&gt;
==Inpaint==&lt;br /&gt;
In questo caso, l&#039;immagine originale viene rigenerata soltanto con le aree che si vogliono modificare/correggere. Inoltre, sarà necessario comporre un prompt con il risultato desiderato.&lt;br /&gt;
&lt;br /&gt;
[[File:Cat_ears.png|600x600px]]&lt;br /&gt;
Prompt: Cat ears made of metal&lt;br /&gt;
&lt;br /&gt;
==Inpaint sketch==&lt;br /&gt;
Questa funzione è servita per modificare il risultato generato dalla funzione &amp;quot;Inpaint&amp;quot;. In questo caso, è stata disegnata sopra l&#039;immagine una sciarpa rossa che dovrà fondersi al risultato precedente.&lt;br /&gt;
&lt;br /&gt;
[[File:Cat_scarf.png|600x600px]]&lt;br /&gt;
prompt: Red scarf&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Img2img&amp;diff=1443</id>
		<title>Img2img</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Img2img&amp;diff=1443"/>
		<updated>2024-03-20T10:47:30Z</updated>

		<summary type="html">&lt;p&gt;Stefano: /* Sperimentazioni */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Img2img è uno strumento in [[Stable Diffusion]] che genera nuove immagini a partire da &#039;&#039;&#039;un’immagine di input e un prompt di testo corrispondente&#039;&#039;&#039;. L’immagine di output conserva il &#039;&#039;&#039;colore originale&#039;&#039;&#039; e la &#039;&#039;&#039;composizione&#039;&#039;&#039; dell’immagine di input. Questo strumento può trasformare i disegni più semplici in capolavori visivamente sorprendenti.&lt;br /&gt;
&lt;br /&gt;
=Overview dell&#039;interfaccia=&lt;br /&gt;
[[File:img2img.png|700px]]&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Sketch&#039;&#039;&#039;: è un’opzione che permette di disegnare direttamente sul canvas dell’interfaccia utente. Questo può essere particolarmente utile quando si utilizza la funzione img2img, poiché consente di creare un’immagine di input personalizzata per la generazione dell’immagine. Si può caricare un’immagine di sfondo sul canvas e poi utilizzare lo strumento &amp;quot;Sketch&amp;quot; per disegnare o aggiungere dettagli.&lt;br /&gt;
* &#039;&#039;&#039;Inpaint&#039;&#039;&#039;: è una funzione che consente di correggere piccoli difetti in un’immagine. Questo processo, implica l’uso di un modello di diffusione per rigenerare parti specifiche dell’immagine. Utilizzando lo strumento “pennello” si crea una maschera sull’area che si desidera rigenerare. Questa funzione può essere particolarmente utile per correggere specifiche aree senza dover rigenerare l’intera immagine.&lt;br /&gt;
* &#039;&#039;&#039;Inpaintsketch&#039;&#039;&#039;: è una funzione che combina le funzionalità di “Sketch” e “Inpaint”. Permette di disegnare o schizzare direttamente sull’immagine di input e poi utilizzare la funzione “Inpaint” per rigenerare le parti dell’immagine che sono state modificate dallo schizzo. Per esempio, può servire quando si desidera fare piccole modifiche a un’immagine esistente senza dover rigenerarla.&lt;br /&gt;
* &#039;&#039;&#039;Inpaint&#039;&#039;&#039; &#039;&#039;&#039;upload&#039;&#039;&#039;: è una funzione che permette di caricare una maschera di &amp;quot;inpainting&amp;quot; personalizzata, piuttosto che disegnarla direttamente nell’interfaccia utente. Questa può essere utile per creare una maschera più complessa o dettagliata per l’inpainting. Dopo aver caricato la maschera, Stable Diffusion la utilizzerà per determinare quali parti dell’immagine rigenerare.&lt;br /&gt;
* &#039;&#039;&#039;Batch&#039;&#039;&#039;: è una funzione che permette di processare più immagini contemporaneamente. Può essere d&#039;aiuto quando si desidera applicare la stessa operazione, come img2img, a un intero set di immagini.&lt;br /&gt;
* &#039;&#039;&#039;Copy image to&#039;&#039;&#039;: Questa opzione permette di scegliere dove si desidera copiare l&#039;immagine processata tra le diverse funzioni disponibili.&lt;br /&gt;
* &#039;&#039;&#039;Soft inpainting&#039;&#039;&#039;: è una funzione che consente di rigenerare parti di un’immagine in modo più fluido e naturale. A differenza dell’inpainting standard, che utilizza una maschera binaria per determinare quali parti dell’immagine rigenerare, Soft Inpainting utilizza una maschera in scala di grigi per creare una transizione più morbida tra le aree rigenerate e il resto dell’immagine. Questo può portare a risultati più naturali, soprattutto quando si rigenerano aree complesse o dettagliate.&lt;br /&gt;
* &#039;&#039;&#039;Resize mode&#039;&#039;&#039;&lt;br /&gt;
** &#039;&#039;&#039;Just resize&#039;&#039;&#039;: Cambia solo le dimensioni dell&#039;immagine senza modificarne le proporzioni.&lt;br /&gt;
** &#039;&#039;&#039;Crop and resize&#039;&#039;&#039;: Ritaglia e cambia le dimensioni dell&#039;immagine per adattarla a specifiche proporzioni.&lt;br /&gt;
** &#039;&#039;&#039;Resize and fill&#039;&#039;&#039;: Cambia le dimensioni dell&#039;immagine e riempie lo spazio aggiuntivo per mantenere le proporzioni originali.&lt;br /&gt;
** &#039;&#039;&#039;Just resize (latent upscale)&#039;&#039;&#039;: Modifica le dimensioni dell&#039;immagine utilizzando una tecnica di upscaling che mantiene la qualità dell&#039;immagine originale.&lt;br /&gt;
&lt;br /&gt;
=Sperimentazioni=&lt;br /&gt;
==Img2img==&lt;br /&gt;
In questo caso, bisognerà inserire un&#039;immagine all&#039;interno dell&#039;interfaccia. In seguito, si inserirà un prompt per determinare in che modo si vuole modificare l&#039;immagine originale. In più, si possono cambiare i parametri che ritroviamo anche nella dashboard di [[Txt2img (Stable Diffusion)]]. Sotto l&#039;immagine che verrà generata apparirà un riassunto dei valori dei parametri inseriti.&lt;br /&gt;
&lt;br /&gt;
[[File:Robotic_cat1.png|600x600px]]&lt;br /&gt;
Prompt: Robotic cat made of Glass&lt;br /&gt;
&lt;br /&gt;
==Sketch==&lt;br /&gt;
In questo esperimento gli occhi del gatto sono stati colorati di azzurro per far comprendere al modello che l&#039;immagine richiesta dovrà presentare non solo un gatto robotico di vetro, ma anche degli occhi luminosi con quel determinato colore.&lt;br /&gt;
&lt;br /&gt;
[[File:Robotic_cat2.png|600x600px]]&lt;br /&gt;
Prompt: Robotic cat made of Glass&lt;br /&gt;
&lt;br /&gt;
==Inpaint==&lt;br /&gt;
In questo caso, l&#039;immagine originale viene rigenerata soltanto con le aree che si vogliono modificare/correggere. Inoltre, sarà necessario comporre un prompt con il risultato desiderato.&lt;br /&gt;
&lt;br /&gt;
[[File:Cat_ears.png|600x600px]]&lt;br /&gt;
Prompt: Cat ears made of metal&lt;br /&gt;
&lt;br /&gt;
==Inpaint sketch==&lt;br /&gt;
Questa funzione è servita per modificare il risultato generato dalla funzione &amp;quot;Inpaint&amp;quot;. In questo caso, è stata disegnata sopra l&#039;immagine una sciarpa rossa che dovrà fondersi al risultato precedente.&lt;br /&gt;
&lt;br /&gt;
[[File:Cat_scarf.png|600x600px]]&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=File:Cat_scarf.png&amp;diff=1442</id>
		<title>File:Cat scarf.png</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=File:Cat_scarf.png&amp;diff=1442"/>
		<updated>2024-03-20T10:46:54Z</updated>

		<summary type="html">&lt;p&gt;Stefano: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Img2img&amp;diff=1441</id>
		<title>Img2img</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Img2img&amp;diff=1441"/>
		<updated>2024-03-20T10:46:12Z</updated>

		<summary type="html">&lt;p&gt;Stefano: /* Sperimentazioni */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Img2img è uno strumento in [[Stable Diffusion]] che genera nuove immagini a partire da &#039;&#039;&#039;un’immagine di input e un prompt di testo corrispondente&#039;&#039;&#039;. L’immagine di output conserva il &#039;&#039;&#039;colore originale&#039;&#039;&#039; e la &#039;&#039;&#039;composizione&#039;&#039;&#039; dell’immagine di input. Questo strumento può trasformare i disegni più semplici in capolavori visivamente sorprendenti.&lt;br /&gt;
&lt;br /&gt;
=Overview dell&#039;interfaccia=&lt;br /&gt;
[[File:img2img.png|700px]]&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Sketch&#039;&#039;&#039;: è un’opzione che permette di disegnare direttamente sul canvas dell’interfaccia utente. Questo può essere particolarmente utile quando si utilizza la funzione img2img, poiché consente di creare un’immagine di input personalizzata per la generazione dell’immagine. Si può caricare un’immagine di sfondo sul canvas e poi utilizzare lo strumento &amp;quot;Sketch&amp;quot; per disegnare o aggiungere dettagli.&lt;br /&gt;
* &#039;&#039;&#039;Inpaint&#039;&#039;&#039;: è una funzione che consente di correggere piccoli difetti in un’immagine. Questo processo, implica l’uso di un modello di diffusione per rigenerare parti specifiche dell’immagine. Utilizzando lo strumento “pennello” si crea una maschera sull’area che si desidera rigenerare. Questa funzione può essere particolarmente utile per correggere specifiche aree senza dover rigenerare l’intera immagine.&lt;br /&gt;
* &#039;&#039;&#039;Inpaintsketch&#039;&#039;&#039;: è una funzione che combina le funzionalità di “Sketch” e “Inpaint”. Permette di disegnare o schizzare direttamente sull’immagine di input e poi utilizzare la funzione “Inpaint” per rigenerare le parti dell’immagine che sono state modificate dallo schizzo. Per esempio, può servire quando si desidera fare piccole modifiche a un’immagine esistente senza dover rigenerarla.&lt;br /&gt;
* &#039;&#039;&#039;Inpaint&#039;&#039;&#039; &#039;&#039;&#039;upload&#039;&#039;&#039;: è una funzione che permette di caricare una maschera di &amp;quot;inpainting&amp;quot; personalizzata, piuttosto che disegnarla direttamente nell’interfaccia utente. Questa può essere utile per creare una maschera più complessa o dettagliata per l’inpainting. Dopo aver caricato la maschera, Stable Diffusion la utilizzerà per determinare quali parti dell’immagine rigenerare.&lt;br /&gt;
* &#039;&#039;&#039;Batch&#039;&#039;&#039;: è una funzione che permette di processare più immagini contemporaneamente. Può essere d&#039;aiuto quando si desidera applicare la stessa operazione, come img2img, a un intero set di immagini.&lt;br /&gt;
* &#039;&#039;&#039;Copy image to&#039;&#039;&#039;: Questa opzione permette di scegliere dove si desidera copiare l&#039;immagine processata tra le diverse funzioni disponibili.&lt;br /&gt;
* &#039;&#039;&#039;Soft inpainting&#039;&#039;&#039;: è una funzione che consente di rigenerare parti di un’immagine in modo più fluido e naturale. A differenza dell’inpainting standard, che utilizza una maschera binaria per determinare quali parti dell’immagine rigenerare, Soft Inpainting utilizza una maschera in scala di grigi per creare una transizione più morbida tra le aree rigenerate e il resto dell’immagine. Questo può portare a risultati più naturali, soprattutto quando si rigenerano aree complesse o dettagliate.&lt;br /&gt;
* &#039;&#039;&#039;Resize mode&#039;&#039;&#039;&lt;br /&gt;
** &#039;&#039;&#039;Just resize&#039;&#039;&#039;: Cambia solo le dimensioni dell&#039;immagine senza modificarne le proporzioni.&lt;br /&gt;
** &#039;&#039;&#039;Crop and resize&#039;&#039;&#039;: Ritaglia e cambia le dimensioni dell&#039;immagine per adattarla a specifiche proporzioni.&lt;br /&gt;
** &#039;&#039;&#039;Resize and fill&#039;&#039;&#039;: Cambia le dimensioni dell&#039;immagine e riempie lo spazio aggiuntivo per mantenere le proporzioni originali.&lt;br /&gt;
** &#039;&#039;&#039;Just resize (latent upscale)&#039;&#039;&#039;: Modifica le dimensioni dell&#039;immagine utilizzando una tecnica di upscaling che mantiene la qualità dell&#039;immagine originale.&lt;br /&gt;
&lt;br /&gt;
=Sperimentazioni=&lt;br /&gt;
==Img2img==&lt;br /&gt;
In questo caso, bisognerà inserire un&#039;immagine all&#039;interno dell&#039;interfaccia. In seguito, si inserirà un prompt per determinare in che modo si vuole modificare l&#039;immagine originale. In più, si possono cambiare i parametri che ritroviamo anche nella dashboard di [[Txt2img (Stable Diffusion)]]. Sotto l&#039;immagine che verrà generata apparirà un riassunto dei valori dei parametri inseriti.&lt;br /&gt;
&lt;br /&gt;
[[File:Robotic_cat1.png|600x600px]]&lt;br /&gt;
Prompt: Robotic cat made of Glass&lt;br /&gt;
&lt;br /&gt;
==Sketch==&lt;br /&gt;
In questo esperimento gli occhi del gatto sono stati colorati di azzurro per far comprendere al modello che l&#039;immagine richiesta dovrà presentare non solo un gatto robotico di vetro, ma anche degli occhi luminosi con quel determinato colore.&lt;br /&gt;
&lt;br /&gt;
[[File:Robotic_cat2.png|600x600px]]&lt;br /&gt;
Prompt: Robotic cat made of Glass&lt;br /&gt;
&lt;br /&gt;
==Inpaint==&lt;br /&gt;
In questo caso, l&#039;immagine originale viene rigenerata soltanto con le aree che si vogliono modificare/correggere. Inoltre, sarà necessario comporre un prompt con il risultato desiderato.&lt;br /&gt;
&lt;br /&gt;
[[File:Cat_ears.png|600x600px]]&lt;br /&gt;
Prompt: Cat ears made of metal&lt;br /&gt;
&lt;br /&gt;
==Inpaint sketch==&lt;br /&gt;
Questa funzione è servita per modificare il risultato generato dalla funzione &amp;quot;Inpaint&amp;quot;. In questo caso, è stata disegnata sopra l&#039;immagine una sciarpa rossa che dovrà fondersi al risultato precedente.&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Img2img&amp;diff=1440</id>
		<title>Img2img</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Img2img&amp;diff=1440"/>
		<updated>2024-03-20T10:14:25Z</updated>

		<summary type="html">&lt;p&gt;Stefano: /* Sperimentazioni */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Img2img è uno strumento in [[Stable Diffusion]] che genera nuove immagini a partire da &#039;&#039;&#039;un’immagine di input e un prompt di testo corrispondente&#039;&#039;&#039;. L’immagine di output conserva il &#039;&#039;&#039;colore originale&#039;&#039;&#039; e la &#039;&#039;&#039;composizione&#039;&#039;&#039; dell’immagine di input. Questo strumento può trasformare i disegni più semplici in capolavori visivamente sorprendenti.&lt;br /&gt;
&lt;br /&gt;
=Overview dell&#039;interfaccia=&lt;br /&gt;
[[File:img2img.png|700px]]&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Sketch&#039;&#039;&#039;: è un’opzione che permette di disegnare direttamente sul canvas dell’interfaccia utente. Questo può essere particolarmente utile quando si utilizza la funzione img2img, poiché consente di creare un’immagine di input personalizzata per la generazione dell’immagine. Si può caricare un’immagine di sfondo sul canvas e poi utilizzare lo strumento &amp;quot;Sketch&amp;quot; per disegnare o aggiungere dettagli.&lt;br /&gt;
* &#039;&#039;&#039;Inpaint&#039;&#039;&#039;: è una funzione che consente di correggere piccoli difetti in un’immagine. Questo processo, implica l’uso di un modello di diffusione per rigenerare parti specifiche dell’immagine. Utilizzando lo strumento “pennello” si crea una maschera sull’area che si desidera rigenerare. Questa funzione può essere particolarmente utile per correggere specifiche aree senza dover rigenerare l’intera immagine.&lt;br /&gt;
* &#039;&#039;&#039;Inpaintsketch&#039;&#039;&#039;: è una funzione che combina le funzionalità di “Sketch” e “Inpaint”. Permette di disegnare o schizzare direttamente sull’immagine di input e poi utilizzare la funzione “Inpaint” per rigenerare le parti dell’immagine che sono state modificate dallo schizzo. Per esempio, può servire quando si desidera fare piccole modifiche a un’immagine esistente senza dover rigenerarla.&lt;br /&gt;
* &#039;&#039;&#039;Inpaint&#039;&#039;&#039; &#039;&#039;&#039;upload&#039;&#039;&#039;: è una funzione che permette di caricare una maschera di &amp;quot;inpainting&amp;quot; personalizzata, piuttosto che disegnarla direttamente nell’interfaccia utente. Questa può essere utile per creare una maschera più complessa o dettagliata per l’inpainting. Dopo aver caricato la maschera, Stable Diffusion la utilizzerà per determinare quali parti dell’immagine rigenerare.&lt;br /&gt;
* &#039;&#039;&#039;Batch&#039;&#039;&#039;: è una funzione che permette di processare più immagini contemporaneamente. Può essere d&#039;aiuto quando si desidera applicare la stessa operazione, come img2img, a un intero set di immagini.&lt;br /&gt;
* &#039;&#039;&#039;Copy image to&#039;&#039;&#039;: Questa opzione permette di scegliere dove si desidera copiare l&#039;immagine processata tra le diverse funzioni disponibili.&lt;br /&gt;
* &#039;&#039;&#039;Soft inpainting&#039;&#039;&#039;: è una funzione che consente di rigenerare parti di un’immagine in modo più fluido e naturale. A differenza dell’inpainting standard, che utilizza una maschera binaria per determinare quali parti dell’immagine rigenerare, Soft Inpainting utilizza una maschera in scala di grigi per creare una transizione più morbida tra le aree rigenerate e il resto dell’immagine. Questo può portare a risultati più naturali, soprattutto quando si rigenerano aree complesse o dettagliate.&lt;br /&gt;
* &#039;&#039;&#039;Resize mode&#039;&#039;&#039;&lt;br /&gt;
** &#039;&#039;&#039;Just resize&#039;&#039;&#039;: Cambia solo le dimensioni dell&#039;immagine senza modificarne le proporzioni.&lt;br /&gt;
** &#039;&#039;&#039;Crop and resize&#039;&#039;&#039;: Ritaglia e cambia le dimensioni dell&#039;immagine per adattarla a specifiche proporzioni.&lt;br /&gt;
** &#039;&#039;&#039;Resize and fill&#039;&#039;&#039;: Cambia le dimensioni dell&#039;immagine e riempie lo spazio aggiuntivo per mantenere le proporzioni originali.&lt;br /&gt;
** &#039;&#039;&#039;Just resize (latent upscale)&#039;&#039;&#039;: Modifica le dimensioni dell&#039;immagine utilizzando una tecnica di upscaling che mantiene la qualità dell&#039;immagine originale.&lt;br /&gt;
&lt;br /&gt;
=Sperimentazioni=&lt;br /&gt;
==Img2img==&lt;br /&gt;
In questo caso, bisognerà inserire un&#039;immagine all&#039;interno dell&#039;interfaccia. In seguito, si inserirà un prompt per determinare in che modo si vuole modificare l&#039;immagine originale. In più, si possono cambiare i parametri che ritroviamo anche nella dashboard di [[Txt2img (Stable Diffusion)]]. Sotto l&#039;immagine che verrà generata apparirà un riassunto dei valori dei parametri inseriti.&lt;br /&gt;
&lt;br /&gt;
[[File:Robotic_cat1.png|600x600px]]&lt;br /&gt;
Prompt: Robotic cat made of Glass&lt;br /&gt;
&lt;br /&gt;
==Sketch==&lt;br /&gt;
In questo esperimento gli occhi del gatto sono stati colorati di azzurro per far comprendere al modello che l&#039;immagine richiesta dovrà presentare non solo un gatto robotico di vetro, ma anche degli occhi luminosi con quel determinato colore.&lt;br /&gt;
&lt;br /&gt;
[[File:Robotic_cat2.png|600x600px]]&lt;br /&gt;
Prompt: Robotic cat made of Glass&lt;br /&gt;
&lt;br /&gt;
==Inpaint==&lt;br /&gt;
In questo caso, l&#039;immagine originale viene rigenerata soltanto con le aree che si vogliono modificare/correggere. Inoltre, sarà necessario comporre un prompt con il risultato desiderato.&lt;br /&gt;
&lt;br /&gt;
[[File:Cat_ears.png|600x600px]]&lt;br /&gt;
Prompt: Cat ears made of metal&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=File:Cat_ears.png&amp;diff=1439</id>
		<title>File:Cat ears.png</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=File:Cat_ears.png&amp;diff=1439"/>
		<updated>2024-03-20T10:08:12Z</updated>

		<summary type="html">&lt;p&gt;Stefano: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Stefano</name></author>
	</entry>
</feed>