ComfyUI : créer des images avec l'IA, le guide complet
Installez ComfyUI et générez vos premières images par IA grâce à une interface visuelle par nœuds. Guide pas à pas pour débutants, Windows, Linux et Mac.
ComfyUI : créer des images avec l'IA, le guide complet
Vous avez vu passer des images générées par IA et vous vous demandez comment faire pareil chez vous, sur votre propre PC ? ComfyUI est probablement le meilleur outil pour ça. Gratuit, open source, et bien plus puissant qu'on pourrait le croire.
Contrairement à d'autres outils où l'on tape un texte et on croise les doigts, ComfyUI fonctionne avec un système de nœuds visuels. Imaginez un tableau de connexions électriques : chaque bloc fait un travail précis, et vous les reliez entre eux pour construire votre pipeline de génération. Ça paraît intimidant, mais une fois le principe compris, c'est un vrai terrain de jeu créatif.
Ce qu'il vous faut avant de commencer
Avant de foncer tête baissée, vérifions le matériel :
- Un PC sous Windows 10/11, Linux (Ubuntu, Debian, Fedora...) ou macOS (Apple Silicon M1 ou plus récent)
- Une carte graphique NVIDIA avec au moins 6 Go de VRAM, c'est le standard confortable. Les GPU AMD fonctionnent aussi, mais le support est moins mature. Les Mac Apple Silicon (M1/M2/M3/M4) tournent très bien grâce à Metal
- Python 3.10 à 3.13 installé (on verra comment)
- Git installé
- Au moins 20 Go d'espace disque libre (les modèles d'IA sont volumineux)
- Une connexion internet pour télécharger les modèles
Si votre carte graphique a moins de 4 Go de VRAM, ComfyUI peut quand même tourner en mode CPU, mais la génération sera lente. Comptez plusieurs minutes par image au lieu de quelques secondes.
Méthode 1 : l'application Desktop (la plus simple)
Pour ceux qui préfèrent éviter le terminal, ComfyUI propose une application bureau officielle. C'est la méthode recommandée si vous débutez.
Étape 1 : téléchargement
Rendez-vous sur comfy.org/download et téléchargez la version correspondant à votre système :
- Windows : fichier .exe
- macOS : fichier .dmg
L'application Desktop embarque tout ce qu'il faut : Python, les dépendances, le serveur. Pas besoin de toucher au terminal.
Étape 2 : installation
Sous Windows, lancez l'installeur et suivez les étapes classiques. Sous macOS, glissez l'application dans le dossier Applications.
Au premier lancement, l'application va configurer l'environnement Python et télécharger les composants nécessaires. Ça peut prendre 5 à 10 minutes selon votre connexion.
Étape 3 : premier lancement
L'interface s'ouvre dans une fenêtre dédiée. Vous verrez le canvas avec des nœuds par défaut, prêts à générer votre première image. On y revient dans la section « Premier workflow » plus bas.
Méthode 2 : installation manuelle (plus de contrôle)
Si vous préférez garder la main sur tout, voici comment installer ComfyUI depuis le code source.
Étape 1 : installer Python et Git
Si vous n'avez pas encore Python, le plus simple est d'utiliser Miniconda :
- Téléchargez Miniconda depuis docs.anaconda.com/free/miniconda
- Installez-le en suivant les instructions de votre système
- Ouvrez un terminal et créez un environnement dédié :
## Crée un environnement isolé pour ComfyUI
conda create -n comfyenv python=3.12
## Active l'environnement (à faire à chaque session)
conda activate comfyenvPourquoi un environnement virtuel ? C'est comme avoir un tiroir séparé dans votre bureau : les outils de ComfyUI ne risquent pas de se mélanger avec ceux d'un autre projet Python.
Pour Git, téléchargez-le depuis git-scm.com/downloads si ce n'est pas déjà fait.
Étape 2 : cloner le dépôt ComfyUI
## Télécharge le code source de ComfyUI
git clone https://github.com/comfyanonymous/ComfyUI.git
## Entre dans le dossier
cd ComfyUIÉtape 3 : installer PyTorch et les dépendances
Cette étape dépend de votre carte graphique.
Pour les GPU NVIDIA (le cas le plus courant) :
## Installe PyTorch avec le support CUDA 12.1
conda install pytorch torchvision torchaudio pytorch-cuda=12.1 -c pytorch -c nvidiaPour les GPU AMD (Linux uniquement avec ROCm) :
pip3 install torch torchvision torchaudio —index-url https://download.pytorch.org/whl/rocm6.0Pour macOS (Apple Silicon M1/M2/M3/M4) :
conda install pytorch-nightly::pytorch torchvision torchaudio -c pytorch-nightlyEnsuite, installez les dépendances de ComfyUI :
## Installe toutes les bibliothèques nécessaires
pip install -r requirements.txtÉtape 4 : lancer ComfyUI
## Démarre le serveur ComfyUI
python main.pyAprès quelques secondes, un message s'affiche avec une URL, généralement http://127.0.0.1:8188. Ouvrez cette adresse dans votre navigateur web.
Si vous voyez le canvas avec des nœuds colorés, tout fonctionne.
Méthode 3 : le portable Windows (zéro installation)
Pour les utilisateurs Windows qui ne veulent rien installer du tout, il existe une version portable.
- Allez sur github.com/comfyanonymous/ComfyUI/releases
- Téléchargez le fichier
ComfyUI_windows_portable_nvidia.7z - Extrayez avec 7-Zip (gratuit sur 7-zip.org)
- Lancez
run_nvidia_gpu.bat
Cette version contient Python 3.13 et PyTorch avec CUDA 13.0. Mettez à jour vos pilotes NVIDIA si le lancement échoue.
Télécharger votre premier modèle
ComfyUI ne sert à rien sans modèle d'IA. Pensez au modèle comme au cerveau qui imagine les images, et à ComfyUI comme l'atelier qui orchestre le travail.
Le modèle le plus accessible pour débuter est SD 1.5 ou SDXL.
Où trouver les modèles
Le site de référence est huggingface.co. Voici un bon point de départ :
- Pour SDXL : cherchez « stabilityai/stable-diffusion-xl-base-1.0 » sur HuggingFace
- Le fichier pèse environ 6,5 Go (SDXL) ou 2 Go (SD 1.5)
Placez le fichier .safetensors téléchargé dans :
ComfyUI/models/checkpoints/Pour l'application Desktop, le dossier modèles est accessible depuis les paramètres de l'application.
Votre premier workflow
Voici comment générer votre toute première image avec ComfyUI.
Comprendre les nœuds de base
Quand vous ouvrez ComfyUI, vous voyez le workflow par défaut. Il contient les blocs essentiels, reliés les uns aux autres comme un schéma de plomberie :
- Load Checkpoint : charge le modèle d'IA. Sélectionnez le fichier que vous avez téléchargé
- CLIP Text Encode (Prompt) : c'est là que vous décrivez l'image souhaitée. Il y en a deux : un pour le prompt positif (ce que vous voulez) et un pour le prompt négatif (ce que vous ne voulez pas)
- KSampler : le moteur de génération. Il prend le bruit aléatoire et le transforme en image selon vos instructions. Pensez à un sculpteur qui retire progressivement de la matière pour révéler la forme
- VAE Decode : traduit le résultat mathématique en image visible
- Save Image : enregistre le résultat
Générer une image
- Dans le nœud Load Checkpoint, sélectionnez votre modèle dans la liste déroulante
- Dans le premier CLIP Text Encode, tapez votre description (en anglais pour de meilleurs résultats) : par exemple
a cozy cabin in the mountains, golden sunset, photorealistic - Dans le second CLIP Text Encode (prompt négatif), tapez ce que vous voulez éviter :
blurry, ugly, deformed, low quality - Cliquez sur Queue Prompt (ou appuyez sur Ctrl+Entrée)
Après quelques secondes (ou minutes selon votre GPU), l'image apparaît dans le nœud Save Image. Félicitations !
Ajuster les paramètres
Dans le nœud KSampler, plusieurs réglages influencent le résultat :
- seed : le numéro de départ aléatoire. Même seed + même prompt = même image
- steps : le nombre d'étapes de génération. 20 à 30 est un bon compromis entre qualité et vitesse
- cfg : la force avec laquelle le modèle suit votre prompt. Entre 7 et 9 pour des résultats équilibrés
- sampler_name : l'algorithme utilisé. « euler » et « dpmpp_2m » sont de bons choix par défaut
- scheduler : « normal » ou « karras » fonctionnent bien
Raccourcis clavier utiles
ComfyUI se manipule beaucoup au clavier. Voici les indispensables :
- Ctrl+Entrée : lancer la génération
- Ctrl+Z : annuler
- Ctrl+S : sauvegarder le workflow
- Ctrl+O : ouvrir un workflow
- Espace : déplacer le canvas (maintenir enfoncé et glisser)
- Double-clic sur le canvas : rechercher et ajouter un nœud
- Suppr : supprimer le nœud sélectionné
Installer des extensions (custom nodes)
ComfyUI brille vraiment quand on ajoute des extensions communautaires. Le gestionnaire le plus populaire est ComfyUI Manager.
Pour l'installer :
## Depuis le dossier ComfyUI
cd custom_nodes
git clone https://github.com/ltdrdata/ComfyUI-Manager.gitRelancez ComfyUI. Un bouton « Manager » apparaît dans l'interface, vous permettant d'installer des centaines d'extensions en quelques clics : upscalers, contrôle de pose, génération vidéo, et bien plus.
Sur la version Desktop, ComfyUI Manager est généralement pré-installé ou proposé au premier lancement.
Où trouver des workflows prêts à l'emploi
Pas besoin de tout construire vous-même. La communauté partage des workflows complets :
- comfy.org/workflows : les templates officiels, un bon point de départ
- openart.ai : une galerie de workflows partagés par la communauté
- civitai.com : des workflows accompagnés de modèles et LoRA
Pour charger un workflow, faites Ctrl+O ou glissez le fichier JSON directement sur le canvas. Si des nœuds sont manquants, ComfyUI Manager peut installer automatiquement les extensions nécessaires.
Résoudre les problèmes courants
« CUDA out of memory » : votre GPU manque de VRAM. Réduisez la taille d'image (512x512 au lieu de 1024x1024) ou ajoutez —lowvram au lancement :
python main.py —lowvramLe navigateur n'affiche rien : vérifiez que l'adresse est bien http://127.0.0.1:8188 et que le serveur tourne dans le terminal.
Nœuds rouges « missing node » : il manque des custom nodes. Utilisez ComfyUI Manager pour les installer.
Image toute noire ou bruitée : vérifiez le nombre de steps (minimum 15) et que le CFG n'est pas trop bas (minimum 5).
Aller plus loin
Maintenant que votre installation fonctionne, voici quelques pistes :
- Testez des modèles récents comme Flux ou SD3.5 pour des résultats plus réalistes
- Explorez les LoRA (petits fichiers qui modifient le style du modèle) depuis civitai.com
- Apprenez à utiliser ControlNet pour guider la composition de vos images
- ComfyUI supporte aussi la génération vidéo avec des modèles comme Hunyuan Video ou Wan 2.1
L'interface par nœuds semble complexe au départ, mais elle offre une flexibilité qu'aucun autre outil ne propose. Prenez le temps d'expérimenter, cassez des workflows, reconstruisez-les. C'est comme ça qu'on progresse.
—-
À lire aussi
Fine-tuner un modèle IA avec LoRA : le guide pas à pas
Apprenez à personnaliser un modèle d'IA en le fine-tunant avec LoRA, même avec une carte graphique modeste. Guide complet pour débutants.
Fine-tuning LoRA/QLoRA : configuration avancée et optimisation
Guide technique complet pour fine-tuner un LLM avec LoRA : quantification QLoRA, hyperparamètres, multi-GPU, troubleshooting et déploiement GGUF.
Bot Discord + Claude API : architecture complète et production
Architecture robuste d'un bot Discord alimenté par Claude. Gestion d'erreurs, rate limiting, Docker, déploiement VPS et bonnes pratiques de production.