ComfyUI
ComfyUI revolutionierte Stable Diffusion Workflows, indem es Bildgenerierung von Parameterformularen in visuelle Programmierung transformierte. Im Januar 2023 veröffentlicht, wurde ComfyUI schnell zum Industriestandard für professionelle KI-Bildgenerierung mit 45.000+ GitHub-Sternen und übertraf AUTOMATIC1111 für fortgeschrittene Anwendungsfälle. Anders als traditionelle UIs, bei denen Benutzer Formulare ausfüllen, bietet ComfyUI einen knotenbasierten Graph-Editor, bei dem jeder Aspekt der Bildgenerierung—Modell-Laden, Prompt-Konditionierung, Sampling, Latent-Operationen, Nachbearbeitung—zu einem verbindbaren Knoten wird. Diese Architektur ermöglicht Workflows, die in anderen Interfaces unmöglich sind: mehrstufige Generierungs-Pipelines, bedingte Verzweigungen, iterative Verfeinerung, Parallelverarbeitung und benutzerdefinierte Algorithmen. Die Plattform unterstützt alle wichtigen Diffusionsmodelle (Stable Diffusion 1.x/2.x, SDXL, FLUX, Stable Video Diffusion, PixArt, Kandinsky), 1.600+ Community-Custom-Nodes und läuft auf jeder GPU (NVIDIA, AMD, Intel, Apple Silicon). ComfyUIs gerichtete azyklische Graph-Architektur (DAG) mit Lazy Evaluation gewährleistet optimale Speichernutzung—Workflows verarbeiten nur erforderliche Knoten und ermöglichen komplexe Multi-Modell-Pipelines auf Consumer-GPUs. Workflows speichern als JSON, betten sich in generierte Bilder ein und teilen über Community-Plattformen (Civitai, OpenArt, ComfyUI Workflows). Stand Oktober 2025 treibt ComfyUI Produktionssysteme bei großen Studios, Spieleentwicklern, Agenturen und KI-Forschern an, die reproduzierbare, versionskontrollierte und nachprüfbare Bildgenerierung benötigen. 21medien spezialisiert sich auf den Aufbau maßgeschneiderter ComfyUI-Workflows, Nodes und Produktions-Deployments—transformiert komplexe Bildgenerierungsanforderungen in effiziente, skalierbare und wartbare Systeme, die konsistente Ergebnisse im großen Maßstab liefern.
Überblick
ComfyUI stellt einen Paradigmenwechsel von parameterbasierten Interfaces zur visuellen Programmierung für Diffusionsmodelle dar. Traditionelle Tools wie AUTOMATIC1111 bieten Formulare mit Hunderten von Parametern—Benutzer passen Schieberegler an, geben Prompts ein und generieren Bilder in isolierten Sitzungen. ComfyUI transformiert dies in einen zusammensetzbaren Graphen: Knoten repräsentieren Operationen (Checkpoint laden, Prompt kodieren, Latent sampeln, Bild dekodieren), Kanten definieren Datenfluss und die Ausführung folgt der Abhängigkeitsreihenfolge. Diese Architektur erschließt professionelle Workflows: Basis-Bild bei niedriger Auflösung generieren → mit anderem Modell hochskalieren → Details mit ControlNet verfeinern → Farbkorrektur anwenden → mehrere Formate ausgeben. Jeder Schritt wird zu einem wiederverwendbaren, konfigurierbaren Knoten. Workflows sind deterministisch—gleiche Knoten, Verbindungen und Seeds produzieren identische Ausgaben—ermöglichen Versionskontrolle, A/B-Tests und reproduzierbare Produktions-Pipelines. Das System verwendet Lazy Evaluation: Knoten werden nur ausgeführt, wenn Ausgaben benötigt werden, vermeidet verschwenderische Berechnung. Model-Offloading verschiebt automatisch ungenutzte Modelle auf CPU/RAM und ermöglicht Workflows mit 5-10+ Modellen auf 12GB VRAM GPUs.
Das ComfyUI-Ökosystem umfasst 1.600+ Custom Nodes, die Funktionalität erweitern: erweiterte Sampler (Restart Sampling, DPM++ 3M SDE), Videogenerierungs-Workflows (AnimateDiff, Stable Video Diffusion), ControlNet-Prozessoren (Tiefe, Pose, Kantenerkennung, Segmentierung), Upscaling-Pipelines (ESRGAN, RealESRGAN, UltraSharp), LLM-Integration für Prompt-Enhancement, API-Konnektoren für externe Services und spezialisierte Knoten für Gesichtsrestaurierung, Hintergrundentfernung und Stil-Transfer. Community-Plattformen teilen Workflows: Civitai hostet 10.000+ ComfyUI-Workflows mit eingebetteten Metadaten, OpenArt bietet durchsuchbare Workflow-Bibliothek und ComfyUI Workflows bietet kuratierte Sammlungen. Professionelle Benutzer nutzen ComfyUIs Python-API für Automatisierung: Batch-Verarbeitung von Tausenden von Bildern mit variablen Parametern, Integration mit Content-Management-Systemen, automatisiertes Testen von Modellkombinationen und Datensatz-Generierung für maschinelles Lernen. 21medien baut Produktions-ComfyUI-Deployments, die monatlich Millionen von Bildern verarbeiten: Wir entwerfen mehrstufige Workflows, entwickeln Custom Nodes für kundenspezifische Anforderungen, optimieren GPU-Speichernutzung, implementieren Monitoring und Error-Handling und bieten API-Endpunkte, die ComfyUI-Workflows als skalierbare REST-Services kapseln.
Hauptfunktionen
- Knotenbasierte visuelle Programmierung: 1.600+ Knoten (Dezember 2024) für jeden Aspekt der Bildgenerierung, kein Code für Workflow-Erstellung erforderlich
- Graphbasierte Architektur: Gerichteter azyklischer Graph (DAG) mit Lazy Evaluation, führt nur erforderliche Knoten für optimale Performance aus
- Modell-Unterstützung: Stable Diffusion 1.x/2.x, SDXL, SDXL Turbo, FLUX, Stable Video Diffusion, PixArt, Kandinsky und Custom Fine-Tunes
- Speichereffizienz: Model-Offloading (GPU → CPU → Festplatte), gekachelte Verarbeitung für 8K+ Bilder, Attention-Optimierungen (xformers, sdp)
- Erweiterte Workflows: Mehrstufige Generierung, bedingte Verzweigung, iterative Verfeinerung, Parallelverarbeitung, Batch-Operationen
- ControlNet-Integration: Tiefe, Pose, Kanten, Segmentierung, Normal Maps mit 40+ Präprozessor-Knoten für präzise Kontrolle
- LoRA/LyCORIS-Unterstützung: Mehrere LoRAs mit individuellen Gewichten stapeln, dynamisches LoRA-Switching, programmatisches LoRA-Merging
- Workflow-Persistenz: Als JSON speichern, in PNG/WebP-Metadaten einbetten, Workflows versionieren, über Community-Plattformen teilen
- Custom-Node-Ökosystem: 1.600+ Community-Nodes, ComfyUI Manager für Ein-Klick-Installation, GitHub-Integration für Updates
- Python-API: Programmatische Workflow-Ausführung, Batch-Automatisierung, Integration mit externen Systemen, REST-API-Server
Technische Architektur
ComfyUIs Architektur besteht aus vier Ebenen. Ebene 1 (Graph-Engine): Verwaltet DAG-Konstruktion, Abhängigkeitsauflösung und Ausführungsreihenfolge. Benutzer ziehen Knoten auf Canvas, verbinden Ein-/Ausgänge, System baut Abhängigkeitsgraph. Execution-Engine durchläuft Graph topologisch, cached Zwischenergebnisse, lagert ungenutzte Modelle aus und verwaltet GPU-Speicher. Ebene 2 (Node-System): Jede Operation ist eine Node-Klasse mit definierten Inputs, Outputs und Ausführungsfunktion. Eingebaute Knoten decken Modell-Laden (CheckpointLoader, LoraLoader, VAELoader), Konditionierung (CLIPTextEncode, ControlNetApply), Sampling (KSampler, KSamplerAdvanced), Latent-Operationen (LatentUpscale, LatentBlend) und Bildverarbeitung (ImageScale, ImageBatch) ab. Custom Nodes erweitern Funktionalität durch Implementierung des Node-Interfaces. Ebene 3 (Model-Backend): PyTorch-basierte Inference-Engine mit Attention-Optimierungen (xformers, Scaled Dot-Product Attention), Mixed Precision (FP16/BF16) und CUDA/ROCm/Metal-Backends. Unterstützt Quantisierung (INT8/INT4 via BitsAndBytes), Model-Merging und Safetensors-Format. Ebene 4 (API/Integration): REST-API für externe Workflow-Ausführung, WebSocket für Echtzeit-Updates, Embedding für Integration in Python-Anwendungen. Code-Beispiel: python main.py --listen 0.0.0.0 --port 8188 startet API-Server, curl -X POST http://localhost:8188/prompt -d '{"prompt": workflow_json}' führt Workflow aus, WebSocket bei ws://localhost:8188/ws streamt Fortschritts-Updates.
Häufige Anwendungsfälle
- Professionelle Bildgenerierung: Spielestudios erstellen Concept Art, Texturen und Assets mit reproduzierbaren Workflows und Versionskontrolle
- E-Commerce-Fotografie: Automatisierte Produktfotografie-Pipelines—Hintergrundentfernung, Lichtanpassung, Multi-Winkel-Generierung mit 1000+ Bildern/Stunde
- Content-Creation-Pipelines: Marketing-Agenturen generieren Social-Media-Assets, Werbung und Kampagnen-Visuals mit Markenkonsistenz
- Forschung und Entwicklung: KI-Forscher experimentieren mit neuartigen Sampling-Techniken, Custom-Schedulern und Architektur-Modifikationen
- Videogenerierung: Stable Video Diffusion Workflows für Animation, Motion Graphics und Video-Stilisierung mit Frame-für-Frame-Kontrolle
- Batch-Verarbeitung: Datensatz-Generierung für maschinelles Lernen—synthetische Trainingsdaten, Datenaugmentierung, Stil-Transfer über Tausende Bilder
- Mehrstufige Verfeinerung: Basis-Generierung → Upscale → Detail-Enhancement → Stil-Transfer → Color-Grading in einem Workflow
- ControlNet-Anwendungen: posenkontrollierte Charaktergenerierung, Architekturvisualisierung aus Grundrissen, Produkt-Mockups aus Skizzen
- Qualitätskontrolle: Automatisiertes Testen von Modellkombinationen, Prompt-Variationen und Parameter-Sweeps mit reproduzierbaren Ergebnissen
- Produktions-Deployments: API-gekapselte Workflows bedienen Millionen Anfragen, integriert mit CMS/DAM-Systemen, Monitoring und Logging
Integration mit 21medien-Services
21medien bietet End-to-End-ComfyUI-Implementierungsservices. Phase 1 (Anforderungsanalyse): Wir bewerten Ihre Bildgenerierungsbedürfnisse—Volumen, Qualitätsziele, Bearbeitungszeit, Integrationsanforderungen—und entwerfen optimale ComfyUI-Workflows. Dies umfasst Modellauswahl (SD 1.5/SDXL/FLUX), Hardware-Anforderungen (GPU-Anzahl, VRAM) und Workflow-Architektur. Phase 2 (Workflow-Entwicklung): Unser Team baut maßgeschneiderte Workflows für Ihren Anwendungsfall: mehrstufige Generierungs-Pipelines, Qualitätskontroll-Checkpoints, bedingte Logik für adaptive Verarbeitung und Batch-Automatisierung. Wir entwickeln Custom Nodes bei Bedarf: proprietäre Bildverarbeitungs-Algorithmen, externe API-Integrationen, Datenbank-Konnektoren, spezialisierte Sampler. Phase 3 (Deployment): Wir deployen ComfyUI auf Ihrer Infrastruktur (On-Premise-Server, AWS/GCP/Azure, dedizierte GPU-Clouds) mit Docker-Containern, Kubernetes-Orchestrierung, Load-Balancing und Auto-Scaling. Produktions-Setup umfasst Monitoring (Prometheus/Grafana), Logging, Error-Handling, Queue-Management (Redis/RabbitMQ) und API-Gateway-Integration. Phase 4 (Optimierung): Wir tunen Workflows für Performance—Model-Offloading-Strategien, Batch-Size-Optimierung, GPU-Speicherverwaltung, Attention-Optimierungen—erreichen 3-5x Throughput-Verbesserungen. Phase 5 (Schulung und Support): Wir schulen Ihr Team in ComfyUI-Workflow-Erstellung, Custom-Node-Entwicklung und Wartung. Laufender Support umfasst Workflow-Updates, Performance-Tuning und Integration neuer Features. Beispiel: Für ein Spielestudio bauten wir ComfyUI-Workflows, die monatlich 50.000+ Concept-Art-Bilder generieren—Charakterdesigns, Umgebungen, Props—mit markenkonsistenten Stilen, automatisierten Qualitätschecks, Integration mit Asset-Management-System, Reduzierung manueller Künstlerarbeit um 60% bei Beibehaltung von Qualitätsstandards.
Code-Beispiele
Python-API-Workflow-Erstellung Beispiel: import json; import requests; workflow = {'1': {'inputs': {'ckpt_name': 'sd_xl_base_1.0.safetensors'}, 'class_type': 'CheckpointLoaderSimple'}, '2': {'inputs': {'text': 'Meisterwerk, beste Qualität, Landschaft, Berge, Sonnenuntergang', 'clip': ['1', 1]}, 'class_type': 'CLIPTextEncode'}, '3': {'inputs': {'text': 'schlechteste Qualität, niedrige Qualität', 'clip': ['1', 1]}, 'class_type': 'CLIPTextEncode'}, '4': {'inputs': {'width': 1024, 'height': 1024, 'batch_size': 1}, 'class_type': 'EmptyLatentImage'}, '5': {'inputs': {'seed': 42, 'steps': 30, 'cfg': 8.0, 'sampler_name': 'dpmpp_2m', 'scheduler': 'karras', 'denoise': 1.0, 'model': ['1', 0], 'positive': ['2', 0], 'negative': ['3', 0], 'latent_image': ['4', 0]}, 'class_type': 'KSampler'}, '6': {'inputs': {'samples': ['5', 0], 'vae': ['1', 2]}, 'class_type': 'VAEDecode'}, '7': {'inputs': {'filename_prefix': 'ComfyUI', 'images': ['6', 0]}, 'class_type': 'SaveImage'}}; response = requests.post('http://localhost:8188/prompt', json={'prompt': workflow}); print(f"Job ID: {response.json()['prompt_id']}") — Custom-Node-Entwicklung Beispiel: class CustomImageProcessor: @classmethod def INPUT_TYPES(cls): return {'required': {'image': ('IMAGE',), 'strength': ('FLOAT', {'default': 1.0, 'min': 0.0, 'max': 2.0, 'step': 0.1})}}; RETURN_TYPES = ('IMAGE',); FUNCTION = 'process'; CATEGORY = 'image/processing'; def process(self, image, strength): # Custom-Verarbeitungslogik; import torch; processed = image * strength; return (processed,); NODE_CLASS_MAPPINGS = {'CustomImageProcessor': CustomImageProcessor} — 21medien bietet umfassende Schulungen in Workflow-Erstellung, API-Integration und Custom-Node-Entwicklung für Produktions-Deployments.
Best Practices
- Modulare Workflows entwerfen—komplexe Pipelines in wiederverwendbare Sub-Workflows aufteilen, einfacheres Debugging und Wartung
- Model-Offloading aggressiv nutzen—--lowvram oder --normalvram Flags basierend auf GPU-Speicher aktivieren, verhindert OOM-Fehler
- Error-Handling-Knoten implementieren—Validierungschecks, Fallback-Pfade, Fehlerausgaben verhindern Workflow-Ausfälle in Produktion
- Workflows versionieren—JSON-Dateien in Git committen, Änderungen verfolgen, Rollback und Kollaboration ermöglichen
- Batch-Größen optimieren—größere Batches verbessern GPU-Auslastung aber erhöhen Speichernutzung, Sweet Spot für Hardware testen
- Zwischenergebnisse cachen—Save/Load-Knoten für teure Operationen verwenden, Neuberechnung während Iteration vermeiden
- GPU-Speicher überwachen—ComfyUI Manager zeigt Speichernutzung, Engpässe identifizieren, Knoten-Reihenfolge optimieren um Peak-Nutzung zu reduzieren
- Seeds konsistent verwenden—fixe Seeds für Debugging und Vergleich, zufällige Seeds für Produktions-Diversität
- Workflows schrittweise testen—Schritt-für-Schritt aufbauen und validieren, einfacher Probleme zu identifizieren als kompletten Workflow debuggen
- Workflows dokumentieren—Notes-Knoten hinzufügen, die Logik, Parameterauswahl, erwartete Ausgaben für Team-Kollaboration erklären
ComfyUI vs AUTOMATIC1111 und Fooocus
ComfyUI, AUTOMATIC1111 und Fooocus zielen auf unterschiedliche Anwendungsfälle. AUTOMATIC1111 (A1111): Formularbasiertes Interface mit umfangreichen Parametern—txt2img, img2img, Inpainting, ControlNet, LoRA-Stapelung via UI. Am besten für: Einzelbild-Generierung, schnelles Experimentieren, Benutzer die maximale Kontrolle ohne Workflow-Komplexität wollen. Stärken: Größtes Extension-Ökosystem (1.000+ Extensions), meiste Modelle kompatibel, umfangreiche Dokumentation, anfängerfreundlich für Basis-Nutzung. Schwächen: Komplexe mehrstufige Workflows erfordern mehrere manuelle Schritte, keine visuelle Workflow-Darstellung, schwierig exakte Pipelines zu reproduzieren, begrenzte Automatisierung. Fooocus: Vereinfachtes Interface, das technische Details verbirgt—Prompt eingeben, Stil wählen, generieren. Automatische Parameterauswahl, eingebaute Qualitäts-Enhancements. Am besten für: Anfänger, Content-Ersteller die schnelle Ergebnisse brauchen, Benutzer die Midjourney-ähnliche Einfachheit mit lokaler Kontrolle wollen. Stärken: Null Lernkurve, exzellente Standard-Ergebnisse, Ein-Klick-Installation, minimale Konfiguration. Schwächen: Begrenzte Anpassung, kein Workflow-Speichern, ungeeignet für Produktions-Pipelines die Reproduzierbarkeit erfordern. ComfyUI: Knotenbasierte visuelle Programmierung für komplexe Workflows. Am besten für: Produktions-Pipelines, Forscher, fortgeschrittene Benutzer die reproduzierbare mehrstufige Generierung benötigen, Teams die versionskontrollierte Workflows brauchen. Stärken: Unendliche Anpassung via Knoten, reproduzierbare Workflows, optimale Speicherverwaltung, Automatisierung via API, Versionskontrolle. Schwächen: Steile Lernkurve (2-4 Wochen bis Kompetenz), erfordert Verständnis von Diffusions-Pipeline-Interna, überwältigend für einfache Anwendungsfälle. Wahl: Fooocus für schnelle gelegentliche Generierung verwenden, A1111 für allgemeine Einzelbild-Arbeit mit Kontrolle, ComfyUI für Produktionssysteme, komplexe Workflows und professionelle Anwendungen die Reproduzierbarkeit und Skalierung erfordern.
Installation und Setup
Systemanforderungen: Python 3.10+ (3.10.6 empfohlen), Git, GPU mit 6GB+ VRAM (8GB für SDXL, 12GB für komplexe Workflows), 20GB+ freier Festplattenspeicher für Modelle. Unterstützte GPUs: NVIDIA (CUDA 11.8+), AMD (ROCm), Intel (IPEX), Apple Silicon (MPS). Installations-Schritte: (1) Repository klonen: git clone https://github.com/comfyanonymous/ComfyUI.git && cd ComfyUI. (2) Dependencies installieren: pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121 && pip install -r requirements.txt. (3) Modelle herunterladen: Stable Diffusion Checkpoints (.safetensors) in models/checkpoints/ platzieren, VAE in models/vae/, LoRA in models/loras/, ControlNet in models/controlnet/. Modelle von HuggingFace (offiziell), Civitai (Community) beziehen. (4) Starten: python main.py startet Server, Zugriff unter http://localhost:8188. Für bessere Performance: --highvram (24GB+), --normalvram (12-16GB) oder --lowvram (6-8GB) Flags hinzufügen. xformers aktivieren: pip install xformers für 30-50% Speicherreduktion. GPU-spezifisch: NVIDIA nutzt CUDA automatisch, AMD --use-pytorch-cross-attention hinzufügen, Apple --force-fp16 hinzufügen. ComfyUI Manager für Ein-Klick-Custom-Node-Installation installieren: git clone https://github.com/ltdrdata/ComfyUI-Manager.git custom_nodes/ComfyUI-Manager && neu starten. Erster Workflow: Beispiel-Workflow aus Web-UI laden → Models-Tab → Load Default → verbindet Checkpoint-Loader → CLIP-Text-Encode → Sampler → VAE-Decode → Bild speichern → Execute. Prompts, Parameter modifizieren, Knoten-Rechtsklick-Menü für verfügbare Knoten erkunden.
Ökosystem und Community
ComfyUI profitiert von hochaktiver Open-Source-Community. Custom Nodes: 1.600+ Knoten verfügbar via ComfyUI Manager decken ab: erweiterte Sampling (Restart Sampling, DPM-Solver++, Euler Ancestral Varianten), Videogenerierung (AnimateDiff, Stable Video Diffusion, Frame-Interpolation), Bildverarbeitung (Upscaling, Restaurierung, Farbkorrektur), ControlNet-Prozessoren (40+ Präprozessoren für Tiefe, Pose, Canny, Lineart), LLM-Integration (GPT/Claude für Prompt-Enhancement), API-Konnektoren (externe Services, Datenbanken), Utility-Knoten (Mathematik, Logik, Bedingungen, Schleifen). Beliebte Node-Packs: ComfyUI_IPAdapter_plus (IP-Adapter für Stil-Transfer), ComfyUI-AnimateDiff-Evolved (Videogenerierung), ComfyUI_Comfyroll_CustomNodes (250+ Utility-Knoten), ComfyUI-Advanced-ControlNet (ControlNet-Scheduling), rgthree-comfy (Workflow-Organisation). Workflow-Sharing: Civitai (10.000+ Workflows mit eingebetteten Metadaten), OpenArt (durchsuchbare Workflow-Bibliothek), ComfyUI Workflows (kuratierte Sammlungen), GitHub (Community-Repositories). Dokumentation: Offizielle Wiki (github.com/comfyanonymous/ComfyUI/wiki), Video-Tutorials (YouTube-Kanäle wie Olivio Sarikas, Scott Detweiler), Community-Foren (Reddit r/comfyui, Discord-Server). Lernressourcen: Beispiel-Workflows in Web-UI, Knoten-Dokumentation via Hover-Tooltips, Community-Guides für häufige Muster (txt2img, img2img, ControlNet, Upscaling). 21medien pflegt Partnerschaften mit ComfyUI-Custom-Node-Entwicklern, gewährleistet Kunden Zugang zu neuesten Features, Custom-Entwicklung und priorisiertem Support für Produktions-Deployments.
Offizielle Ressourcen
https://github.com/comfyanonymous/ComfyUIVerwandte Technologien
AUTOMATIC1111
Traditionelles formularbasiertes Stable Diffusion Interface, einfacher für Einzelbild-Generierung
Fooocus
Vereinfachtes Stable Diffusion Interface für Anfänger, minimale Konfiguration erforderlich
Stable Diffusion 3.5
Neuestes Stable Diffusion Modell kompatibel mit ComfyUI-Workflows
PyTorch
Deep-Learning-Framework, das ComfyUIs Backend-Inference-Engine antreibt