Questo tutorial spiega come installare ComfyUI su Windows e usarlo con il modello FLUX.1-dev di Black Forest Labs per generare immagini in alta qualità, senza pagare nulla a Midjourney, DALL-E o Imagen. La pipeline gira anche su GPU consumer come una RTX 3060 o RTX 4060, e con la versione GGUF anche su schede con 8 GB di VRAM. Tempo medio per immagine 1024x1024: 25 secondi su RTX 4080, 50 secondi su RTX 4060.
A chi serve e cosa otterrai
Questa guida è per chi vuole generare immagini di livello commerciale per progetti propri (illustrazioni, mockup, cover, social, branding) senza i vincoli di licenza dei generatori online. Alla fine sarai in grado di:
- Installare ComfyUI in versione portable, senza toccare Python di sistema.
- Scaricare i modelli FLUX corretti per il tuo hardware.
- Caricare il workflow ufficiale e generare immagini con prompt in italiano.
- Risolvere gli errori VRAM e ottimizzare la velocità.
Strumenti e modelli: cosa scegliere
Software: ComfyUI è il GUI a nodi più potente per i modelli di diffusione, supporta tutti i workflow nuovi prima degli altri ed è gratuito (Apache 2.0). Alternative: Forge UI (più semplice ma meno aggiornato), AUTOMATIC1111 (storico ma lento su FLUX). Per FLUX, ComfyUI è oggi la scelta migliore.
Modelli FLUX disponibili:
- FLUX.1-dev (fp16, 23,8 GB): la massima qualità, richiede 24+ GB di VRAM. Per RTX 3090, 4090, A6000.
- FLUX.1-dev (fp8, 11,9 GB): qualità quasi identica, 16+ GB di VRAM. Per RTX 4080, 4070 Ti Super, 3090.
- FLUX.1-dev Q4_K_S GGUF (6,8 GB): versione quantizzata, 8-12 GB di VRAM. Per RTX 4060, 3060, 4060 Ti.
- FLUX.1-schnell (12 GB): versione veloce, 4 step invece di 20, licenza Apache 2.0 (utilizzabile commercialmente). Qualità leggermente inferiore.
Per uso commerciale, attenzione: FLUX.1-dev ha licenza non-commerciale; per progetti a pagamento serve FLUX.1-schnell oppure il pacchetto FLUX.1 Pro via API a pagamento.
Prerequisiti
- Windows 10 (build 19041+) o Windows 11.
- Scheda video NVIDIA con almeno 8 GB di VRAM (consigliati 12+). Per AMD/Apple Silicon vedi sezione finale.
- Driver NVIDIA aggiornati (versione 552 o superiore).
- 30 GB di spazio libero su disco veloce (SSD).
- 7-Zip installato (gratuito da 7-zip.org).
Passo 1 — Scaricare ComfyUI Portable
Apri il browser e vai sulla pagina release di GitHub:
https://github.com/comfyanonymous/ComfyUI/releasesScarica il file ComfyUI_windows_portable_nvidia.7z (circa 1,7 GB). Estraine il contenuto in una cartella semplice, ad esempio C:\comfyui. Eviterà problemi di path lunghi tipici di Windows.
Passo 2 — Aggiornare ComfyUI all'ultima versione
Entra nella cartella C:\comfyui\ComfyUI_windows_portable e fai doppio clic su update\update_comfyui.bat. Aspetta che si concluda (1-2 minuti). Questo è importante perché FLUX richiede una versione di ComfyUI di fine 2025 o successiva: tutte le release dell'ultimo anno sono compatibili, ma vale sempre la pena partire dall'ultima.
Passo 3 — Installare ComfyUI Manager
ComfyUI Manager è un'estensione che semplifica l'installazione di nodi custom e modelli. Apri il prompt nella cartella ComfyUI\custom_nodes e lancia:
git clone https://github.com/ltdrdata/ComfyUI-Manager.gitSe non hai git installato, puoi scaricare il repository come zip da GitHub ed estrarlo manualmente in quella cartella.
Passo 4 — Scaricare il modello FLUX adatto
I file vanno scaricati da Hugging Face (richiesto account gratuito):
- flux1-dev-fp8.safetensors da huggingface.co/Comfy-Org/flux1-dev/tree/main → mettere in
ComfyUI\models\diffusion_models. - ae.safetensors (VAE) da huggingface.co/black-forest-labs/FLUX.1-dev (accetta la licenza, poi scarica) →
ComfyUI\models\vae. - clip_l.safetensors e t5xxl_fp8_e4m3fn.safetensors (text encoders) da huggingface.co/comfyanonymous/flux_text_encoders →
ComfyUI\models\text_encoders.
Per VRAM bassa (8-12 GB), sostituisci flux1-dev-fp8 con la versione GGUF dal repository city96/FLUX.1-dev-gguf: scegli flux1-dev-Q4_K_S.gguf e mettilo nella stessa cartella diffusion_models. Servirà anche il nodo personalizzato ComfyUI-GGUF installabile via Manager.
Passo 5 — Avviare ComfyUI
Doppio clic su run_nvidia_gpu.bat. Il terminale parte e mostra l'URL dell'interfaccia, di solito http://127.0.0.1:8188. Aprilo nel browser. Se vedi i nodi sullo schermo, ComfyUI funziona.
Passo 6 — Caricare il workflow ufficiale FLUX
Scarica il workflow di esempio dal sito ComfyUI:
https://comfyanonymous.github.io/ComfyUI_examples/flux/Salva il file flux_dev_example.png (l'immagine contiene il workflow nei metadata). Trascinala dentro la finestra di ComfyUI: il workflow viene caricato automaticamente. Avrai una catena di nodi che parte da CheckpointLoader/UNETLoader, passa per i text encoder, va al sampler e finisce con il VAE Decoder.
Passo 7 — Generare la prima immagine
Sul nodo CLIP Text Encode (Positive) inserisci un prompt. Esempi pronti:
«A photorealistic portrait of an Italian elderly man making homemade pasta, soft natural light from a kitchen window, depth of field, Leica look, ultra detailed skin»
«Illustrazione editoriale, in stile rivista, di un robot che insegna a leggere a un bambino in una biblioteca antica, colori caldi, dettagli precisi»
«Cinematic shot of a foggy morning in a Tuscan vineyard, golden hour, 35mm film, slight grain, professional photography»
FLUX accetta prompt anche in italiano, ma in inglese rende leggermente meglio i dettagli stilistici. Imposta i parametri principali: steps = 20, guidance = 3.5, sampler = euler, scheduler = simple, width/height = 1024x1024. Clicca Queue Prompt (o Run) in alto a destra.
La prima generazione è più lenta perché carica il modello in VRAM. Dalla seconda in poi, sui valori standard, una RTX 4080 fa 25 secondi a immagine, una RTX 3060 12 GB circa 90 secondi con il modello GGUF.
Errori comuni e come risolverli
- «CUDA out of memory»: la VRAM non basta. Passa alla versione GGUF Q4 o riduci la risoluzione (es. 768x768). In alternativa imposta nelle opzioni di ComfyUI --lowvram nel file
run_nvidia_gpu.bat. - Immagine completamente nera: VAE caricato male. Verifica che il file ae.safetensors sia in
models\vaee che il nodo VAE Loader punti a quel file. - Volti deformati: incrementa steps a 28-32, guidance a 4.0, e aggiungi al prompt «sharp eyes, detailed face, anatomically correct hands».
- Errore «sentencepiece» mancante: lancia da
ComfyUI\python_embededil comandopython.exe -m pip install sentencepiece. - Risultati molto diversi tra esecuzioni: blocca il seed sul nodo KSampler.
Varianti: AMD, Apple Silicon, casi avanzati
Su AMD Radeon serve la build ROCm di PyTorch e una RX 7900 XT o XTX; performance circa il 30% più basse di una NVIDIA equivalente. Su Mac M1/M2/M3/M4 ComfyUI gira con backend MPS: scarica la versione manuale e installa torch con MPS abilitato. Su M3 Max con 36 GB di memoria unificata, FLUX-dev fp8 va circa quanto una RTX 4070.
Per usi avanzati, da provare dopo i primi test:
- LoRA: aggiungi pesi specializzati (volti, stili) caricabili dal nodo LoraLoader. Su Civitai trovi migliaia di LoRA gratuiti già adattati per FLUX.
- ControlNet per FLUX: composizione, pose, depth map. I modelli sono nel repo XLabs-AI/flux-controlnet-collections.
- Upscaling: usa il nodo UltimateSDUpscale o il modello 4x-UltraSharp per portare le immagini fino a 4K senza perdere dettaglio.
Quando NON usare FLUX in locale
Tre casi:
- Hai bisogno di generare poche immagini al mese: meglio Midjourney o DALL-E via web.
- Vuoi produrre video o animazioni complesse: per ora è più pratico usare Runway, Pika o Luma cloud.
- Lavori in team e hai bisogno di collaborazione: ComfyUI è single-user. Usa Leonardo.ai o Krea per team.
Per chi crea contenuto in proprio, vuole sperimentare senza limiti di credito e tenere il controllo sui propri prompt, ComfyUI con FLUX rappresenta oggi lo stato dell'arte gratuito. Il tempo investito per l'installazione si ripaga rapidamente: dopo la prima settimana avrai una pipeline personalizzata che nessun servizio online può eguagliare.




