Questo tutorial spiega come installare ComfyUI su Windows e usarlo con il modello FLUX.1-dev di Black Forest Labs per generare immagini in alta qualità, senza pagare nulla a Midjourney, DALL-E o Imagen. La pipeline gira anche su GPU consumer come una RTX 3060 o RTX 4060, e con la versione GGUF anche su schede con 8 GB di VRAM. Tempo medio per immagine 1024x1024: 25 secondi su RTX 4080, 50 secondi su RTX 4060.

A chi serve e cosa otterrai

Questa guida è per chi vuole generare immagini di livello commerciale per progetti propri (illustrazioni, mockup, cover, social, branding) senza i vincoli di licenza dei generatori online. Alla fine sarai in grado di:

  • Installare ComfyUI in versione portable, senza toccare Python di sistema.
  • Scaricare i modelli FLUX corretti per il tuo hardware.
  • Caricare il workflow ufficiale e generare immagini con prompt in italiano.
  • Risolvere gli errori VRAM e ottimizzare la velocità.

Strumenti e modelli: cosa scegliere

Software: ComfyUI è il GUI a nodi più potente per i modelli di diffusione, supporta tutti i workflow nuovi prima degli altri ed è gratuito (Apache 2.0). Alternative: Forge UI (più semplice ma meno aggiornato), AUTOMATIC1111 (storico ma lento su FLUX). Per FLUX, ComfyUI è oggi la scelta migliore.

Modelli FLUX disponibili:

  • FLUX.1-dev (fp16, 23,8 GB): la massima qualità, richiede 24+ GB di VRAM. Per RTX 3090, 4090, A6000.
  • FLUX.1-dev (fp8, 11,9 GB): qualità quasi identica, 16+ GB di VRAM. Per RTX 4080, 4070 Ti Super, 3090.
  • FLUX.1-dev Q4_K_S GGUF (6,8 GB): versione quantizzata, 8-12 GB di VRAM. Per RTX 4060, 3060, 4060 Ti.
  • FLUX.1-schnell (12 GB): versione veloce, 4 step invece di 20, licenza Apache 2.0 (utilizzabile commercialmente). Qualità leggermente inferiore.

Per uso commerciale, attenzione: FLUX.1-dev ha licenza non-commerciale; per progetti a pagamento serve FLUX.1-schnell oppure il pacchetto FLUX.1 Pro via API a pagamento.

Prerequisiti

  • Windows 10 (build 19041+) o Windows 11.
  • Scheda video NVIDIA con almeno 8 GB di VRAM (consigliati 12+). Per AMD/Apple Silicon vedi sezione finale.
  • Driver NVIDIA aggiornati (versione 552 o superiore).
  • 30 GB di spazio libero su disco veloce (SSD).
  • 7-Zip installato (gratuito da 7-zip.org).

Passo 1 — Scaricare ComfyUI Portable

Apri il browser e vai sulla pagina release di GitHub:

https://github.com/comfyanonymous/ComfyUI/releases

Scarica il file ComfyUI_windows_portable_nvidia.7z (circa 1,7 GB). Estraine il contenuto in una cartella semplice, ad esempio C:\comfyui. Eviterà problemi di path lunghi tipici di Windows.

Passo 2 — Aggiornare ComfyUI all'ultima versione

Entra nella cartella C:\comfyui\ComfyUI_windows_portable e fai doppio clic su update\update_comfyui.bat. Aspetta che si concluda (1-2 minuti). Questo è importante perché FLUX richiede una versione di ComfyUI di fine 2025 o successiva: tutte le release dell'ultimo anno sono compatibili, ma vale sempre la pena partire dall'ultima.

Passo 3 — Installare ComfyUI Manager

ComfyUI Manager è un'estensione che semplifica l'installazione di nodi custom e modelli. Apri il prompt nella cartella ComfyUI\custom_nodes e lancia:

git clone https://github.com/ltdrdata/ComfyUI-Manager.git

Se non hai git installato, puoi scaricare il repository come zip da GitHub ed estrarlo manualmente in quella cartella.

Passo 4 — Scaricare il modello FLUX adatto

I file vanno scaricati da Hugging Face (richiesto account gratuito):

  • flux1-dev-fp8.safetensors da huggingface.co/Comfy-Org/flux1-dev/tree/main → mettere in ComfyUI\models\diffusion_models.
  • ae.safetensors (VAE) da huggingface.co/black-forest-labs/FLUX.1-dev (accetta la licenza, poi scarica) → ComfyUI\models\vae.
  • clip_l.safetensors e t5xxl_fp8_e4m3fn.safetensors (text encoders) da huggingface.co/comfyanonymous/flux_text_encodersComfyUI\models\text_encoders.

Per VRAM bassa (8-12 GB), sostituisci flux1-dev-fp8 con la versione GGUF dal repository city96/FLUX.1-dev-gguf: scegli flux1-dev-Q4_K_S.gguf e mettilo nella stessa cartella diffusion_models. Servirà anche il nodo personalizzato ComfyUI-GGUF installabile via Manager.

Passo 5 — Avviare ComfyUI

Doppio clic su run_nvidia_gpu.bat. Il terminale parte e mostra l'URL dell'interfaccia, di solito http://127.0.0.1:8188. Aprilo nel browser. Se vedi i nodi sullo schermo, ComfyUI funziona.

ComfyUI lavora a nodi: ogni operazione è visibile e modificabile graficamente. Foto: Pexels.

Passo 6 — Caricare il workflow ufficiale FLUX

Scarica il workflow di esempio dal sito ComfyUI:

https://comfyanonymous.github.io/ComfyUI_examples/flux/

Salva il file flux_dev_example.png (l'immagine contiene il workflow nei metadata). Trascinala dentro la finestra di ComfyUI: il workflow viene caricato automaticamente. Avrai una catena di nodi che parte da CheckpointLoader/UNETLoader, passa per i text encoder, va al sampler e finisce con il VAE Decoder.

Passo 7 — Generare la prima immagine

Sul nodo CLIP Text Encode (Positive) inserisci un prompt. Esempi pronti:

«A photorealistic portrait of an Italian elderly man making homemade pasta, soft natural light from a kitchen window, depth of field, Leica look, ultra detailed skin»
«Illustrazione editoriale, in stile rivista, di un robot che insegna a leggere a un bambino in una biblioteca antica, colori caldi, dettagli precisi»
«Cinematic shot of a foggy morning in a Tuscan vineyard, golden hour, 35mm film, slight grain, professional photography»

FLUX accetta prompt anche in italiano, ma in inglese rende leggermente meglio i dettagli stilistici. Imposta i parametri principali: steps = 20, guidance = 3.5, sampler = euler, scheduler = simple, width/height = 1024x1024. Clicca Queue Prompt (o Run) in alto a destra.

La prima generazione è più lenta perché carica il modello in VRAM. Dalla seconda in poi, sui valori standard, una RTX 4080 fa 25 secondi a immagine, una RTX 3060 12 GB circa 90 secondi con il modello GGUF.

Errori comuni e come risolverli

  • «CUDA out of memory»: la VRAM non basta. Passa alla versione GGUF Q4 o riduci la risoluzione (es. 768x768). In alternativa imposta nelle opzioni di ComfyUI --lowvram nel file run_nvidia_gpu.bat.
  • Immagine completamente nera: VAE caricato male. Verifica che il file ae.safetensors sia in models\vae e che il nodo VAE Loader punti a quel file.
  • Volti deformati: incrementa steps a 28-32, guidance a 4.0, e aggiungi al prompt «sharp eyes, detailed face, anatomically correct hands».
  • Errore «sentencepiece» mancante: lancia da ComfyUI\python_embeded il comando python.exe -m pip install sentencepiece.
  • Risultati molto diversi tra esecuzioni: blocca il seed sul nodo KSampler.

Varianti: AMD, Apple Silicon, casi avanzati

Su AMD Radeon serve la build ROCm di PyTorch e una RX 7900 XT o XTX; performance circa il 30% più basse di una NVIDIA equivalente. Su Mac M1/M2/M3/M4 ComfyUI gira con backend MPS: scarica la versione manuale e installa torch con MPS abilitato. Su M3 Max con 36 GB di memoria unificata, FLUX-dev fp8 va circa quanto una RTX 4070.

Per usi avanzati, da provare dopo i primi test:

  • LoRA: aggiungi pesi specializzati (volti, stili) caricabili dal nodo LoraLoader. Su Civitai trovi migliaia di LoRA gratuiti già adattati per FLUX.
  • ControlNet per FLUX: composizione, pose, depth map. I modelli sono nel repo XLabs-AI/flux-controlnet-collections.
  • Upscaling: usa il nodo UltimateSDUpscale o il modello 4x-UltraSharp per portare le immagini fino a 4K senza perdere dettaglio.

Quando NON usare FLUX in locale

Tre casi:

  1. Hai bisogno di generare poche immagini al mese: meglio Midjourney o DALL-E via web.
  2. Vuoi produrre video o animazioni complesse: per ora è più pratico usare Runway, Pika o Luma cloud.
  3. Lavori in team e hai bisogno di collaborazione: ComfyUI è single-user. Usa Leonardo.ai o Krea per team.

Per chi crea contenuto in proprio, vuole sperimentare senza limiti di credito e tenere il controllo sui propri prompt, ComfyUI con FLUX rappresenta oggi lo stato dell'arte gratuito. Il tempo investito per l'installazione si ripaga rapidamente: dopo la prima settimana avrai una pipeline personalizzata che nessun servizio online può eguagliare.