vLLM
vLLM revolutionierte LLM-Inference-Performance durch PagedAttention, einen neuartigen Attention-Algorithmus, der Speicherverschwendung eliminiert und 24-fach höheren Durchsatz versus Standardimplementierungen ermöglicht. An der UC Berkeley entwickelt und im Juni 2023 als Open Source veröffentlicht, wurde vLLM schnell zum De-facto-Standard für produktives LLM-Serving und treibt Systeme bei Anthropic, Microsoft, NVIDIA und Tausenden KI-Unternehmen an. Der Durchbruch: Traditionelles LLM-Serving verschwendet 60-80% des GPU-Speichers auf fragmentierten KV-Cache (Key-Value-Cache, der vorherige Tokens für Attention speichert). PagedAttention behandelt KV-Cache wie virtuellen Speicher in Betriebssystemen, allokiert nicht-zusammenhängende Speicherblöcke und eliminiert Fragmentierung. Resultat: 24-fache Durchsatzverbesserung, 2-fache Latenzreduktion und Fähigkeit, 3-5-mal mehr gleichzeitige Nutzer pro GPU zu bedienen. Seit Oktober 2025 unterstützt vLLM alle wichtigen Modelle (Llama 4, GPT, Claude, Mistral, Qwen), fortgeschrittene Features (Continuous Batching, Speculative Decoding, Multi-LoRA-Serving) und Deployment-Optionen (Docker, Kubernetes, Cloud-Plattformen). Das System erreicht über 15.000 Tokens/Sekunde auf NVIDIA H100, bedient über 100 gleichzeitige Nutzer pro GPU für Llama 70B und reduziert Inference-Kosten um 70-80% versus naive Implementierungen. 21medien deployed vLLM für Kunden, die produktionsreifes LLM-Serving benötigen: Wir übernehmen Architekturdesign, Optimierung, Monitoring und Skalierung—ermöglichen Unternehmen täglich Millionen Anfragen zu 1/5 der Kosten von Managed-API-Alternativen zu bedienen.

Übersicht
vLLM adressiert den fundamentalen Engpass beim LLM-Serving: Speicherineffizienz. Standard-Inference-Frameworks (HuggingFace Transformers, Vanilla PyTorch) allokieren Speicherblöcke fester Größe für KV-Cache, was zu 60-80% Fragmentierung führt. Zum Beispiel erfordert das Serving von Llama 70B mit 2048-Token-Kontext 140GB Speicher pro Anfrage mit naiver Allokation, aber nur 28GB mit PagedAttention. Diese 5-fache Speichereffizienz übersetzt sich direkt in Durchsatz: mehr gleichzeitige Anfragen passen in GPU-Speicher. PagedAttention funktioniert durch: (1) Aufteilung des KV-Cache in Blöcke fester Größe (typisch 16 Tokens), (2) nicht-zusammenhängende Speicherung von Blöcken wie OS Virtual Memory, (3) Nutzung von Block-Tabellen zur Verfolgung logisch-zu-physischer Mappings, (4) dynamische Allokation/Freigabe von Blöcken während Sequenzen Tokens generieren. Zusätzliche Optimierungen umfassen Continuous Batching (neue Anfragen ohne Warten auf Batch-Completion hinzufügen), Speculative Decoding (mehrere Tokens simultan vorhersagen) und Tensor-Parallelismus (Modelle über GPUs verteilen). vLLMs API-Kompatibilität mit OpenAI gewährleistet Drop-in-Replacement: Bestehender Code mit OpenAI-Client funktioniert unverändert, einfach auf vLLM-Endpoint zeigen.
Die Performance-Gewinne sind dramatisch und messbar. Benchmarks zeigen, dass vLLM 24-fach höheren Durchsatz als HuggingFace Text Generation Inference für Llama 13B erreicht, 14-fach für Llama 70B. Latenz verbessert sich um Faktor 2-3: First Token in 50-100ms (vs 200-400ms), nachfolgende Tokens in 15-30ms-Intervallen (vs 60-100ms). GPU-Auslastung erreicht 85-95% (vs 40-60% für Standard-Serving), entscheidend für Kosteneffizienz. Praktische Auswirkung: eine einzelne NVIDIA A100 bedient über 100 gleichzeitige Llama-13B-Nutzer mit vLLM versus 20-30 mit naivem PyTorch. Multi-LoRA-Serving ermöglicht einzelnes Deployment zum Hosten von über 100 fine-tuneten Adaptern simultan, Nutzer routen zu ihrem Custom-Modell ohne separate Instanzen. 21medien nutzt vLLM für Produktions-Deployments: Wir haben Systeme gebaut, die über 5M Anfragen/Tag auf 8x-A100-Clustern bedienen (vs 40+ GPUs mit Standard-Serving), erreichen 99,9% Uptime, p95-Latenz unter 200ms und 75% Kostenreduktion versus Managed-API-Services bei gleichem Maßstab.
Hauptfunktionen
- PagedAttention: Revolutionäres Memory-Management reduziert KV-Cache-Fragmentierung von 60-80% auf nahe Null, ermöglicht 5-mal mehr gleichzeitige Nutzer
- Continuous Batching: Dynamisches Request-Batching ohne Warten auf Batch-Completion, reduziert Latenz um 40-60% versus statisches Batching
- Hoher Durchsatz: 24-mal schneller als Standardimplementierungen, über 15.000 Tokens/Sekunde auf H100, 85-95% GPU-Auslastung
- OpenAI-API-kompatibel: Drop-in-Replacement für OpenAI-Client, bestehender Code funktioniert unverändert mit `/v1/completions` und `/v1/chat/completions`
- Multi-LoRA-Serving: Über 100 LoRA-Adapter simultan hosten, Nutzer routen dynamisch zu fine-tuneten Modellen ohne separate Deployments
- Speculative Decoding: Mehrere Tokens simultan mit kleinerem Draft-Modell vorhersagen, verbessert Durchsatz um Faktor 2-3 für bestimmte Workloads
- Tensor-Parallelismus: Große Modelle automatisch über mehrere GPUs verteilen, unterstützt bis zu 8-fache Parallelität für 405B-Modelle
- Prefix-Caching: Häufige Prompt-Präfixe cachen (System-Messages, Few-Shot-Beispiele) zur Vermeidung von Neuberechnung, reduziert Latenz um 50-80%
- Quantisierungs-Support: Modelle in AWQ-, GPTQ-, SqueezeLLM-Formaten servieren für 2-4-fache Speicherreduktion bei minimalem Qualitätsverlust
- Produktionsreif: Docker-Images, Kubernetes-Helm-Charts, Monitoring-Integration (Prometheus), horizontale Skalierung, Health-Checks
Technische Architektur
vLLMs Architektur besteht aus drei Hauptkomponenten. Scheduler: Verwaltet eingehende Anfragen, weist Execution-Batches mit Continuous Batching zu, handhabt Priority-Queuing, implementiert Backpressure bei erreichter Kapazität. Execution Engine: Führt Modell-Inference auf GPU aus, implementiert PagedAttention für speichereffiziente Attention-Berechnung, handhabt Tensor-Parallelismus für Multi-GPU-Modelle, verwaltet KV-Cache-Block-Allokation/-Freigabe. Tokenizer: Verarbeitet Eingabetext zu Tokens und Ausgabe-Tokens zu Text, läuft auf CPU zur GPU-Entlastung, unterstützt alle HuggingFace-Tokenizer. PagedAttention-Implementierung teilt Attention-Berechnung in blockbasierte Operationen: (1) Query-Vektoren attenden zu KV-Blöcken mittels Block-Tabellen-Indirektion, (2) Partielle Attention pro Block berechnet, (3) Ergebnisse über Blöcke aggregiert, (4) Blöcke über Sequenzen mit Copy-on-Write-Semantik geteilt. Memory-Allocator nutzt Buddy-Allocation-System: Zweierpotenzen-Block-Größen (16, 32, 64 Tokens), schnelle Allokation/Free, automatische Defragmentierung. Continuous Batching funktioniert durch: (1) Neue Anfrage trifft ein, (2) Scheduler fügt sofort zu aktivem Batch hinzu, (3) Abgeschlossene Sequenzen aus Batch entfernt, (4) GPU verarbeitet variable Batch-Größen jede Iteration. Dies eliminiert Head-of-Line-Blocking bei statischem Batching. 21medien tuned vLLM-Deployments für optimale Performance: Auswahl von Block-Größe (16 für kurze Sequenzen, 128 für lange Dokumente), Konfiguration der GPU-Speicher-Allokation (80% für KV-Cache, 20% für Modellgewichte und Aktivierungen), Setzen maximaler gleichzeitiger Anfragen basierend auf Modellgröße und verfügbarem Speicher.
Häufige Anwendungsfälle
- Produktions-LLM-APIs: Llama-, Mistral-, Qwen-Modelle im großen Maßstab servieren, über 10K Anfragen/Sekunde, p95-Latenz unter 200ms für Chatbots und Assistenten
- Multi-Tenant-KI-Plattformen: Über 100 kundenspezifische fine-tunete Modelle mit Multi-LoRA-Serving hosten, dynamisches Routing, isolierte Inference pro Tenant
- Echtzeit-Anwendungen: Chat-Interfaces, Code-Completion, Content-Generierung mit Sub-100ms-First-Token-Latenz und Streaming-Responses
- Batch-Processing: Millionen Dokumente verarbeiten, Embeddings generieren, Content klassifizieren mit 10-100-fachem Durchsatz versus API-Aufrufe
- Enterprise-Deployments: On-Premise-LLM-Serving für Datensouveränität, Compliance (DSGVO, HIPAA), Air-Gapped-Umgebungen ohne Internetzugang
- Forschungsplattformen: Akademische Labs servieren Modelle an Forscher, Experimente mit Custom-Modellen, A/B-Testing von Inference-Optimierungen
- Edge-Deployments: Kleinere Modelle (7B-13B) auf Edge-Servern servieren, Retail-Locations, Fahrzeuge mit limitierten GPU-Ressourcen
- Kostenoptimierung: Teure API-Aufrufe ($0,001-0,01/1K Tokens) durch Self-Hosted-Serving ersetzen ($0,0001-0,0005/1K Tokens)
- Hochdurchsatz-RAG: Retrieval-Augmented-Generation-Systeme servieren, die über 1000 Queries/Sekunde mit niedriger Latenz verarbeiten
- Multimodale Anwendungen: LLaVA-, Qwen-VL-Vision-Language-Modelle für Bildverständnis, OCR, Visual Question Answering servieren
Integration mit 21medien-Services
21medien bietet umfassende vLLM-Deployment- und Optimierungsservices. Phase 1 (Requirements-Analyse): Wir bewerten Ihre Workload (Anfragerate, Latenzziele, Modellgröße, gleichzeitige Nutzer), Infrastruktur (GPU-Verfügbarkeit, Cloud vs On-Premise) und Budget, um optimale vLLM-Architekturen zu entwerfen. Kapazitätsplanung bestimmt GPU-Anforderungen, Instance-Typen (A100, H100, L40S) und Skalierungsstrategie. Phase 2 (Deployment): Wir deployen vLLM auf Ihrer Infrastruktur mit Docker-Containern oder Kubernetes-Helm-Charts, konfigurieren GPU-Allokation, richten Load-Balancing ein (NGINX, HAProxy), implementieren Health-Checks und Auto-Scaling (Kubernetes HPA). Multi-Region-Deployments umfassen Geo-Routing, Failover und Datenreplikation. Phase 3 (Optimierung): Wir tunen vLLM-Parameter für Ihre Workload: Block-Größen-Auswahl, maximale gleichzeitige Anfragen, GPU-Speicher-Allokation, Continuous-Batching-Einstellungen, Tensor-Parallelismus-Konfiguration. Benchmarking validiert Performance-Ziele (Durchsatz, Latenz, GPU-Auslastung). Phase 4 (Monitoring): Wir integrieren mit Monitoring-Systemen (Prometheus, Grafana, Datadog), tracken Key-Metriken (Anfragen/Sekunde, Latenz-Perzentile, GPU-Speicherverbrauch, Queue-Tiefe), richten Alerting für Anomalien ein, implementieren verteiltes Tracing für Debugging. Phase 5 (Betrieb): Laufende Wartung umfasst Modell-Updates, Performance-Tuning, Kapazitätsskalierung, Incident-Response und Kostenoptimierung. Beispiel: Für eine KI-Chatbot-Plattform haben wir vLLM deployed, das Llama 70B auf 8x-H100-Cluster serviert, 12.000 Anfragen/Sekunde erreicht, p95-Latenz 180ms, 92% GPU-Auslastung, 50K gleichzeitige Nutzer bedient, Infrastrukturkosten von 180K€/Monat (Managed APIs) auf 35K€/Monat (Self-Hosted vLLM) reduziert—80% Kosteneinsparungen bei 40% verbesserter Latenz.
Code-Beispiele
Basis-vLLM-Server-Setup: pip install vllm; python -m vllm.entrypoints.openai.api_server --model meta-llama/Llama-2-70b-hf --tensor-parallel-size 4 --port 8000 # Serviert auf http://localhost:8000 mit OpenAI-kompatibler API — Client-Nutzung (Drop-in-OpenAI-Replacement): from openai import OpenAI; client = OpenAI(base_url='http://localhost:8000/v1', api_key='dummy'); response = client.chat.completions.create(model='meta-llama/Llama-2-70b-hf', messages=[{'role': 'user', 'content': 'Erkläre Quantencomputing'}], max_tokens=500, temperature=0.7); print(response.choices[0].message.content) — Fortgeschritten: Multi-LoRA-Serving: python -m vllm.entrypoints.openai.api_server --model meta-llama/Llama-2-13b-hf --enable-lora --lora-modules sql-lora=./lora/sql legal-lora=./lora/legal medical-lora=./lora/medical; # Clients spezifizieren Adapter: response = client.chat.completions.create(model='sql-lora', messages=[...]) — Docker-Deployment: docker run --gpus all -p 8000:8000 vllm/vllm-openai:latest --model meta-llama/Llama-2-70b-hf --tensor-parallel-size 4 — Kubernetes-Deployment mit Helm: helm install vllm ./vllm-helm-chart --set model.name=meta-llama/Llama-2-70b-hf --set replicaCount=3 --set resources.limits.nvidia\.com/gpu=4 — 21medien bietet produktionsreife Deployment-Templates, Monitoring-Dashboards und Optimierungs-Consulting für vLLM-Deployments.
Best Practices
- GPU-Allokation richtig dimensionieren: GPU-Speicher-Profiling nutzen zur Bestimmung optimaler max_model_len und max_num_seqs, Unter-/Über-Provisionierung vermeiden
- Tensor-Parallelismus für große Modelle aktivieren: 70B+-Modelle erfordern 2-4 GPUs, 175B+ benötigen 4-8 GPUs, --tensor-parallel-size-Flag nutzen
- Continuous Batching konfigurieren: max_num_batched_tokens basierend auf GPU-Speicher setzen, typische Werte 8192-32768 für optimalen Durchsatz/Latenz-Tradeoff
- Prefix-Caching für wiederholte Prompts nutzen: System-Messages, Few-Shot-Beispiele automatisch gecacht, reduziert Latenz um 50-80% für häufige Präfixe
- GPU-Auslastung monitoren: 85-95% Auslastung anstreben, niedriger indiziert Unterauslastung, höher riskiert OOM-Fehler, max_num_seqs entsprechend anpassen
- Request-Queuing implementieren: Redis/RabbitMQ für Request-Queue nutzen, verhindert Server-Überlastung, ermöglicht graziösen Backpressure und Retry-Logik
- Mit Load-Balancing deployen: Multiple vLLM-Replicas hinter Load-Balancer (NGINX, HAProxy) für High-Availability und horizontale Skalierung
- Quantisierung für speicherbeschränkte Szenarien nutzen: AWQ/GPTQ reduzieren Speicher um Faktor 2-4, ermöglicht größere Batch-Größen, minimale Qualitätsdegradation (< 1%)
- Speculative Decoding für latenzkritische Apps aktivieren: 2-3-fache Durchsatzverbesserung für bestimmte Workloads, erfordert kompatibles Draft-Modell
- Vor Produktion benchmarken: Mit realistischen Workload-Mustern testen, p50/p95/p99-Latenz messen, Durchsatz unter Last validieren
Performance-Vergleich
vLLM übertrifft Alternativen deutlich über Schlüsselmetriken. Durchsatz: vLLM erreicht 24-fach höheren Durchsatz als HuggingFace Transformers für Llama 13B (2400 vs 100 Anfragen/Sekunde auf A100), 14-fach für Llama 70B. versus Text Generation Inference (TGI): vLLM bietet 3-5-fach besseren Durchsatz für gleiche Hardware, bessere GPU-Auslastung (90% vs 65%), niedrigere p95-Latenz. versus Ray Serve: vLLMs Continuous Batching schlägt Rays statisches Batching um Faktor 8-12 für variable-Längen-Anfragen. versus TensorRT-LLM: Vergleichbarer Durchsatz, aber vLLM bietet einfacheres Deployment (keine Kompilierung erforderlich), schnellere Iteration (Modell-Updates in Sekunden vs Stunden). Speichereffizienz: vLLM bedient 100 gleichzeitige Llama-13B-Nutzer auf einzelner A100 (24GB) versus 20-30 mit PyTorch, 5-fache Verbesserung durch PagedAttention. Kosten: Bei 2€/Stunde pro A100 serviert vLLM 5M Anfragen/Tag für 48€ versus 240€+ mit Standard-Serving (5-fache Kostenreduktion). versus Managed APIs: OpenAI berechnet 0,01€/1K Tokens für GPT-3.5, vLLM Self-Hosting kostet 0,0002€/1K Tokens (50-mal günstiger bei Scale). Latenz: First Token 50-100ms (vs 200-400ms Standard), nachfolgende Tokens 15-30ms (vs 60-100ms), Streaming-Responses fühlen sich für Nutzer instantan an. 21medien hilft Kunden ROI zu quantifizieren: typische Einsparungen 70-80% versus Managed APIs für 10M+ Anfragen/Monat, Break-even bei 5M Anfragen/Monat für On-Premise-Deployment.
Offizielle Ressourcen
https://github.com/vllm-project/vllmVerwandte Technologien
LangChain
LLM-Framework, das sich mit vLLM für den Aufbau von Produktionsanwendungen mit optimiertem Serving integriert
Llama 4
Open-Source-LLM, häufig mit vLLM für Enterprise-Deployments serviert
Quantization
Modellkomprimierungstechnik, die von vLLM unterstützt wird (AWQ, GPTQ) für speichereffizientes Serving
PyTorch
Deep-Learning-Framework, auf dem vLLM für GPU-beschleunigte Inference aufbaut