← Zurück zur Bibliothek
Text-to-Video Anbieter: Lightricks

LTX Video

LTX Video (LTXV) von Lightricks stellt einen Paradigmenwechsel in der KI-Videogenerierung dar als erstes DiT (Diffusion Transformer)-basiertes Modell, das hochwertige Videos in Echtzeit generieren kann - schneller als sie anzusehen sind. Das Modell produziert beeindruckende 30-FPS-Videos bei 1216×704 Auflösung und setzt neue Standards für Geschwindigkeit und Qualität in der KI-Videogenerierung. Im Mai 2025 veröffentlichte Lightricks LTXV-13B, ein 13-Milliarden-Parameter-Modell mit bahnbrechender 'Multiscale Rendering'-Technologie, die Geschwindigkeit und Qualität durch einen geschichteten Generierungsprozess liefert. Diese Innovation macht LTXV etwa 30-mal schneller als vergleichbare Modelle. Das Juli-2025-Update revolutionierte die Plattform weiter durch Clips länger als 60 Sekunden - ein achtfacher Sprung über die Branchennorm von acht Sekunden - mit Live-Streaming-Rendering, das die erste Sekunde Inhalt fast sofort zurückgibt. Was LTX Video wirklich auszeichnet, ist sein ethisches Fundament: Das Modell ist ausschließlich auf vollständig lizenzierten Daten von Anbietern wie Getty Images und Shutterstock trainiert, was sicherstellt, dass alle generierten Videos völlig frei von Urheberrechtsverletzungen sind. Als Open-Source mit kostenlosem Zugang zum Basismodell verfügbar, unterstützt LTXV Bild-zu-Video, Keyframe-basierte Animation, bidirektionale Video-Erweiterung und Video-zu-Video-Transformationen.

LTX Video
video-generierung echtzeit-ki open-source ethische-ki text-zu-video diffusions-transformer langform-video

Überblick

LTX Video (LTXV) von Lightricks stellt einen Paradigmenwechsel in der KI-Videogenerierung dar als erstes DiT (Diffusion Transformer)-basiertes Modell, das hochwertige Videos in Echtzeit generieren kann - schneller als sie anzusehen sind. Das Modell produziert beeindruckende 30-FPS-Videos bei 1216×704 Auflösung und setzt neue Standards für Geschwindigkeit und Qualität in der KI-Videogenerierung.

Im Mai 2025 veröffentlichte Lightricks LTXV-13B, ein 13-Milliarden-Parameter-Modell mit bahnbrechender 'Multiscale Rendering'-Technologie, die Geschwindigkeit und Qualität durch einen geschichteten Generierungsprozess liefert. Diese Innovation macht LTXV etwa 30-mal schneller als vergleichbare Modelle. Das Juli-2025-Update revolutionierte die Plattform weiter durch Clips länger als 60 Sekunden - ein achtfacher Sprung über die Branchennorm von acht Sekunden - mit Live-Streaming-Rendering, das die erste Sekunde Inhalt fast sofort zurückgibt.

Was LTX Video wirklich auszeichnet, ist sein ethisches Fundament: Das Modell ist ausschließlich auf vollständig lizenzierten Daten von Anbietern wie Getty Images und Shutterstock trainiert, was sicherstellt, dass alle generierten Videos völlig frei von Urheberrechtsverletzungen sind. Als Open-Source mit kostenlosem Zugang zum Basismodell verfügbar, unterstützt LTXV Bild-zu-Video, Keyframe-basierte Animation, bidirektionale Video-Erweiterung und Video-zu-Video-Transformationen.

Hauptmerkmale

  • Echtzeit-Generierung: 30-FPS-Video bei 1216×704 schneller als Wiedergabe
  • 13 Milliarden Parameter mit Multiscale-Rendering-Durchbruch
  • 60+ Sekunden Videogenerierung mit Live-Streaming-Fähigkeiten
  • 30x schneller als vergleichbare Videogenerierungsmodelle
  • Erstes DiT-basiertes Modell für Echtzeit-Videogenerierung
  • Ethisches Training auf vollständig lizenzierten Getty Images- und Shutterstock-Daten
  • Bild-zu-Video-Transformation
  • Keyframe-basierte Animationskontrolle
  • Bidirektionale Video-Erweiterung (vorwärts und rückwärts)
  • Video-zu-Video-Transformationen
  • Open-Source mit kostenlosem Basismodellzugang
  • Urheberrechtsfreier generierter Inhalt

Anwendungsfälle

  • Echtzeit-Video-Content-Erstellung für Social Media
  • Ethische kommerzielle Videoproduktion mit klarer Lizenzierung
  • Langform-KI-Videogenerierung (60+ Sekunden)
  • Bildanimation und Video-Erweiterung
  • Schnelles Prototyping für Film und Werbung
  • Keyframe-gesteuerte narrative Videoerstellung
  • Live-gestreamte Videogenerierung für interaktive Anwendungen
  • Urheberrechtskonforme Marketing- und Markeninhalte

Technische Spezifikationen

LTX Video verwendet eine DiT (Diffusion Transformer)-Architektur mit Multiscale-Rendering-Technologie. Das 13-Milliarden-Parameter-LTXV-13B-Modell gibt Videos mit 1216×704 Auflösung bei 30 FPS aus mit Unterstützung für 60+ Sekunden Dauer. Das Modell erreicht etwa 30-fache Geschwindigkeit im Vergleich zu vergleichbaren Modellen durch seinen innovativen geschichteten Generierungsprozess mit Live-Streaming-Fähigkeiten, die die erste Sekunde Inhalt fast sofort liefern.

Ethisches Training und Lizenzierung

LTX Video ist ausschließlich auf vollständig lizenzierten Daten von Getty Images und Shutterstock trainiert, was vollständige Urheberrechtskonformität gewährleistet. Alle generierten Videos sind urheberrechtsfrei und sicher für kommerzielle Nutzung. Das Modell bietet umfassende Fähigkeiten einschließlich Bild-zu-Video-Transformation, Keyframe-basierter Animation, bidirektionaler Video-Erweiterung (vorwärts und rückwärts) und Video-zu-Video-Transformationen, mit Unterstützung für jede Kombination dieser Funktionen.

Preise und Verfügbarkeit

LTX Video arbeitet mit einem Freemium-Modell mit Open-Source-Optionen. Das Basismodell mit offenen Gewichten ist kostenlos verfügbar, während LTX Studio ein Abonnement für erweiterte Funktionen bietet. Das Open-Source-Basismodell gewährleistet ethische Lizenzierung mit urheberrechtsfreien Ausgaben.

Ressourcen und Links

Offizielle Website: https://www.lightricks.com/ltxv | LTX Studio: https://ltx.studio/ | GitHub: https://github.com/Lightricks/LTX-Video | HuggingFace: https://huggingface.co/Lightricks/LTX-Video | HuggingFace Space: https://huggingface.co/spaces/Lightricks/ltx-video-distilled | Blog: https://www.lightricks.com/blog

Code-Beispiel: Lokale Inferenz mit Hugging Face

Deployen Sie LTX Video lokal für Echtzeit-30fps-Videogenerierung schneller als Wiedergabe. Diese Implementierung zeigt die Multiscale-Rendering-Technologie und demonstriert Text-zu-Video-, Bild-zu-Video- und Video-Erweiterungs-Fähigkeiten mit ethischen, urheberrechtsfreien Ausgaben.

import torch
from diffusers import LTXPipeline, LTXImageToVideoPipeline
from diffusers.utils import export_to_video, load_image
import time
from PIL import Image
import gc

# Konfiguration für LTX Video
MODEL_ID = "Lightricks/LTX-Video"
DEVICE = "cuda" if torch.cuda.is_available() else "cpu"
DTYPE = torch.bfloat16  # Optimiert für Echtzeit-Leistung

print("Lade LTX Video - Echtzeit-Generierungsmodell...")
print(f"Gerät: {DEVICE}")

try:
    # Text-zu-Video-Pipeline initialisieren
    pipe_t2v = LTXPipeline.from_pretrained(
        MODEL_ID,
        torch_dtype=DTYPE
    )
    pipe_t2v.to(DEVICE)
    
    # Optimierungen für Geschwindigkeit aktivieren
    pipe_t2v.enable_model_cpu_offload()
    
    # Beispiel 1: Echtzeit-Text-zu-Video-Generierung
    print("\n=== Text-zu-Video-Generierung ===")
    prompt = "Ein ruhiger Wasserfall in einem üppigen Regenwald, aufsteigender Nebel, fliegende Vögel, natürliche Beleuchtung, hohe Qualität"
    
    start_time = time.time()
    print(f"Generiere: {prompt}")
    
    # Video mit Multiscale-Rendering generieren
    video_frames = pipe_t2v(
        prompt=prompt,
        negative_prompt="niedrige Qualität, verschwommen, verzerrt",
        num_frames=121,  # ~4 Sekunden bei 30fps
        height=704,
        width=1216,
        num_inference_steps=50,
        guidance_scale=3.0,  # LTX Video optimierte Guidance
        generator=torch.Generator(device=DEVICE).manual_seed(42)
    ).frames[0]
    
    generation_time = time.time() - start_time
    video_duration = 121 / 30  # Sekunden
    
    output_path = "ltx_text_zu_video.mp4"
    export_to_video(video_frames, output_path, fps=30)
    
    print(f"Generierungszeit: {generation_time:.2f}s")
    print(f"Videodauer: {video_duration:.2f}s")
    print(f"Echtzeit-Faktor: {video_duration/generation_time:.2f}x")
    print(f"Gespeichert: {output_path}")
    
    # Beispiel 2: Bild-zu-Video-Animation
    print("\n=== Bild-zu-Video-Animation ===")
    
    # Bild-zu-Video-Pipeline laden
    pipe_i2v = LTXImageToVideoPipeline.from_pretrained(
        MODEL_ID,
        torch_dtype=DTYPE
    )
    pipe_i2v.to(DEVICE)
    pipe_i2v.enable_model_cpu_offload()
    
    # Bild erstellen oder laden
    # Für Demo laden Sie: image = load_image("pfad/zum/bild.jpg")
    # Hier verwenden wir einen Platzhalter
    image = Image.new('RGB', (1216, 704), color='lightblue')
    
    prompt_i2v = "Kamera zoomt langsam hinein, sanfter Wind weht, kinematische Bewegung"
    
    print(f"Animiere Bild mit Prompt: {prompt_i2v}")
    
    video_frames = pipe_i2v(
        image=image,
        prompt=prompt_i2v,
        negative_prompt="statisch, keine Bewegung, eingefroren",
        num_frames=121,
        height=704,
        width=1216,
        num_inference_steps=50,
        guidance_scale=3.0,
        generator=torch.Generator(device=DEVICE).manual_seed(123)
    ).frames[0]
    
    output_path = "ltx_bild_zu_video.mp4"
    export_to_video(video_frames, output_path, fps=30)
    print(f"Gespeichert: {output_path}")
    
    # Beispiel 3: Langform-Video (60+ Sekunden)
    print("\n=== Langform-Videogenerierung ===")
    prompt_long = "Zeitraffer des Sonnenuntergangs über Stadt-Skyline, sich bewegende Wolken, Lichter gehen an, dramatische Farben"
    
    print(f"Generiere 60+ Sekunden Video: {prompt_long}")
    print("Verwende Live-Streaming-Fähigkeiten für progressives Rendering...")
    
    # Erweitertes Video generieren (vereinfachtes Beispiel)
    video_frames = pipe_t2v(
        prompt=prompt_long,
        negative_prompt="niedrige Qualität, statisch, keine Bewegung",
        num_frames=1800,  # 60 Sekunden bei 30fps
        height=704,
        width=1216,
        num_inference_steps=40,  # Etwas weniger Schritte für Geschwindigkeit
        guidance_scale=3.0,
        generator=torch.Generator(device=DEVICE).manual_seed(456)
    ).frames[0]
    
    output_path = "ltx_langform.mp4"
    export_to_video(video_frames, output_path, fps=30)
    print(f"60+ Sekunden Video gespeichert: {output_path}")
    
    # Aufräumen
    del pipe_t2v, pipe_i2v
    gc.collect()
    torch.cuda.empty_cache()
    
    print("\n=== Alle Generierungen abgeschlossen ===")
    print("Alle Videos sind urheberrechtsfrei (trainiert auf lizenzierten Getty/Shutterstock-Daten)")
    
except Exception as e:
    print(f"Fehler während der Generierung: {e}")
    raise

# Produktionsbeispiel: Keyframe-basierte Animation
def keyframe_animation_beispiel():
    """
    Video mit Keyframe-Kontrolle für narrative Inhalte generieren
    Demonstriert bidirektionale Erweiterung und Video-zu-Video-Transformation
    """
    print("\n=== Keyframe-basierte Animation ===")
    
    keyframes = [
        {
            "frame": 0,
            "prompt": "Produkt auf weißem Hintergrund, Studiobeleuchtung",
            "image": "produkt_aufnahme.jpg"
        },
        {
            "frame": 90,  # 3 Sekunden
            "prompt": "Kamera kreist um Produkt, dynamische Beleuchtung"
        },
        {
            "frame": 180,  # 6 Sekunden
            "prompt": "Nahaufnahme von Produktdetails, weicher Fokus-Hintergrund"
        }
    ]
    
    print("Keyframe-Animation für Produkt-Showcase")
    print(f"Gesamt-Keyframes: {len(keyframes)}")
    # Implementierung würde Generierungen zwischen Keyframes verketten

# Social-Media-Optimierung
def social_media_batch_generierung():
    """Mehrere Social-Media-Videos mit Urheberrechtskonformität generieren"""
    prompts = [
        "Mode-Model geht auf urbaner Straße, selbstbewusster Gang, goldene Stunde",
        "Essenzubereitung in moderner Küche, Zutaten werden gehackt, appetitlich",
        "Fitness-Workout-Montage, hohe Energie, Gym-Umgebung, motivierend"
    ]
    
    print("\n=== Social-Media-Batch-Generierung ===")
    print(f"Generiere {len(prompts)} urheberrechtsfreie Videos für Instagram Reels/TikTok")
    
    for idx, prompt in enumerate(prompts, 1):
        print(f"\nVideo {idx}/{len(prompts)}: {prompt[:50]}...")
        # Jedes Video ist urheberrechtsfrei aufgrund ethischer Trainingsdaten
        # Implementierung folgt dem obigen Muster

Code-Beispiel: Cloud-API-Inferenz

Greifen Sie auf LTX Video über die LTX Studio Cloud-Plattform für Echtzeit-Videogenerierung mit Live-Streaming-Fähigkeiten zu. Dieses Beispiel demonstriert Produktions-Workflows für kommerzielle Videoerstellung mit garantierter Urheberrechtskonformität.

import requests
import time
import json
import os
from pathlib import Path
from typing import Optional, List, Dict, Any
import websocket  # Für Live-Streaming-Unterstützung

class LTXStudioClient:
    """
    Produktions-Client für LTX Video Cloud-API
    Unterstützt Echtzeit-Generierung, Live-Streaming und Langform-Video
    """
    
    def __init__(self, api_key: str):
        self.api_key = api_key
        self.base_url = "https://api.ltx.studio/v1"
        self.headers = {
            "Authorization": f"Bearer {api_key}",
            "Content-Type": "application/json"
        }
    
    def generate_video(
        self,
        prompt: str,
        duration: int = 4,
        resolution: str = "1216x704",
        style: str = "realistic",
        stream: bool = False
    ) -> Dict[str, Any]:
        """
        Video mit LTX Video Cloud-API generieren
        
        Args:
            prompt: Textbeschreibung
            duration: Videodauer in Sekunden (unterstützt 60+ Sekunden)
            resolution: Ausgabeauflösung (1216x704 Standard)
            style: Visueller Stil-Preset
            stream: Live-Streaming für progressives Rendering aktivieren
        
        Returns:
            Generierungsergebnis mit Video-URL
        """
        try:
            print(f"Sende LTX Video-Generierung...")
            print(f"Prompt: {prompt}")
            print(f"Dauer: {duration}s | Auflösung: {resolution}")
            
            payload = {
                "prompt": prompt,
                "negative_prompt": "niedrige Qualität, verschwommen, Wasserzeichen",
                "duration": duration,
                "resolution": resolution,
                "style": style,
                "fps": 30,
                "stream": stream,
                "copyright_safe": True  # Gewährleistet nur ethische Trainingsdaten
            }
            
            response = requests.post(
                f"{self.base_url}/generate",
                headers=self.headers,
                json=payload,
                timeout=600  # Langes Timeout für 60+ Sekunden Videos
            )
            response.raise_for_status()
            
            result = response.json()
            generation_id = result["id"]
            
            print(f"Generierungs-ID: {generation_id}")
            
            # Auf Fertigstellung pollen (oder streamen, falls aktiviert)
            if stream:
                return self._stream_generation(generation_id)
            else:
                return self._poll_generation(generation_id)
            
        except requests.exceptions.RequestException as e:
            print(f"API-Anfragefehler: {e}")
            raise
        except Exception as e:
            print(f"Generierungsfehler: {e}")
            raise
    
    def _poll_generation(self, generation_id: str) -> Dict[str, Any]:
        """Auf Generierungsfertigstellung pollen"""
        print("Warte auf Fertigstellung der Generierung...")
        
        max_attempts = 120  # 10 Minuten max
        attempt = 0
        
        while attempt < max_attempts:
            response = requests.get(
                f"{self.base_url}/generate/{generation_id}",
                headers=self.headers
            )
            response.raise_for_status()
            
            result = response.json()
            status = result["status"]
            
            if status == "completed":
                print("Generierung abgeschlossen!")
                return result
            elif status == "failed":
                raise Exception(f"Generierung fehlgeschlagen: {result.get('error')}")
            
            # Fortschritt für Langform-Video anzeigen
            if "progress" in result:
                print(f"Fortschritt: {result['progress']}%", end="\r")
            
            time.sleep(5)
            attempt += 1
        
        raise TimeoutError("Generierung Zeitüberschreitung")
    
    def _stream_generation(self, generation_id: str) -> Dict[str, Any]:
        """Generierung mit Live-Updates streamen (für 60+ Sekunden Videos)"""
        print("Streaming-Generierung mit Live-Rendering...")
        print("Erste Sekunde wird fast sofort verfügbar sein...")
        
        # WebSocket-Streaming für progressives Rendering
        ws_url = f"wss://api.ltx.studio/v1/stream/{generation_id}"
        
        # Vereinfachtes Streaming-Beispiel
        # In Produktion vollständiges WebSocket-Handling implementieren
        print("Empfange Live-Stream...")
        
        return {"message": "Streaming-Implementierung"}
    
    def generate_from_image(
        self,
        image_path: str,
        prompt: str,
        duration: int = 4
    ) -> Dict[str, Any]:
        """Video aus Bild generieren (Bild-zu-Video)"""
        try:
            print(f"Bild-zu-Video: {image_path}")
            print(f"Animations-Prompt: {prompt}")
            
            # Bild hochladen
            with open(image_path, "rb") as f:
                files = {"image": f}
                data = {
                    "prompt": prompt,
                    "duration": duration,
                    "fps": 30
                }
                
                response = requests.post(
                    f"{self.base_url}/image-to-video",
                    headers={"Authorization": f"Bearer {self.api_key}"},
                    files=files,
                    data=data
                )
                response.raise_for_status()
            
            result = response.json()
            return self._poll_generation(result["id"])
            
        except Exception as e:
            print(f"Bild-zu-Video-Fehler: {e}")
            raise
    
    def download_video(self, video_url: str, output_path: Path) -> Path:
        """Generiertes Video herunterladen"""
        try:
            print(f"Lade Video herunter...")
            response = requests.get(video_url, stream=True)
            response.raise_for_status()
            
            with open(output_path, "wb") as f:
                for chunk in response.iter_content(chunk_size=8192):
                    f.write(chunk)
            
            print(f"Gespeichert: {output_path}")
            return output_path
            
        except Exception as e:
            print(f"Download-Fehler: {e}")
            raise

# Business-Anwendungsfall: Marketing-Video-Kampagne
def marketing_kampagne_workflow():
    """Vollständiger Workflow für urheberrechtssichere Marketing-Videos"""
    
    API_KEY = os.getenv("LTX_STUDIO_API_KEY", "ihr_api_key_hier")
    client = LTXStudioClient(API_KEY)
    
    # Kampagnen-Videos mit Urheberrechtskonformitäts-Garantie
    campaigns = [
        {
            "name": "brand_hero",
            "prompt": "Modernes Tech-Produkt schwebend im minimalistischen Raum, saubere Beleuchtung, professionelle Werbung",
            "duration": 8
        },
        {
            "name": "lifestyle_shot",
            "prompt": "Glückliche Kunden verwenden mobile App in Café, natürliche Interaktion, authentische Atmosphäre",
            "duration": 10
        },
        {
            "name": "product_demo_long",
            "prompt": "Detaillierte Produkt-Features-Showcase, flüssige Übergänge, professionelle Präsentation",
            "duration": 60  # Langform-Video mit Live-Streaming
        }
    ]
    
    output_dir = Path("marketing_kampagne")
    output_dir.mkdir(exist_ok=True)
    
    for campaign in campaigns:
        print(f"\n{'='*60}")
        print(f"Generiere: {campaign['name']}")
        print(f"{'='*60}")
        
        # Video generieren
        result = client.generate_video(
            prompt=campaign["prompt"],
            duration=campaign["duration"],
            stream=campaign["duration"] > 30  # Stream für lange Videos
        )
        
        # Herunterladen
        video_path = output_dir / f"{campaign['name']}.mp4"
        client.download_video(result["video_url"], video_path)
        
        print(f"✓ Abgeschlossen: {campaign['name']}")
        print(f"  Dauer: {campaign['duration']}s")
        print(f"  Urheberrechtssicher: Ja (Getty/Shutterstock-Trainingsdaten)")
        print(f"  Ausgabe: {video_path}")
    
    print("\n=== Marketing-Kampagne abgeschlossen ===")
    print("Alle Videos sind urheberrechtsfrei und sicher für kommerzielle Nutzung")

if __name__ == "__main__":
    marketing_kampagne_workflow()

Professionelle Integrationsdienste von 21medien

LTX Videos Echtzeit-Generierung, ethische Trainingsdaten und 60+ Sekunden-Fähigkeiten machen es zu einer leistungsstarken Lösung für professionelle Videoproduktion, aber die Maximierung dieser Vorteile erfordert spezialisierte Implementierungs-Expertise. 21medien bietet umfassende Integrationsdienste für Unternehmen, die sowohl Leistung als auch Urheberrechtskonformität priorisieren.

Unsere spezialisierten Dienstleistungen umfassen: Echtzeit-Video-Pipeline-Architektur zum Aufbau von Live-Streaming-Videogenerierungssystemen, die LTX Videos progressive Rendering-Fähigkeiten nutzen, Urheberrechtskonformitäts-Strategie zur Sicherstellung, dass Ihre Video-Workflows nur ethisch trainierte Modelle mit vollständiger Getty Images- und Shutterstock-Lizenzierung verwenden, Langform-Videoproduktionssysteme zur Generierung und Verwaltung von 60+ Sekunden-Inhalten mit optimierten Rendering-Pipelines und Qualitätskontrolle, Multi-modale Workflow-Entwicklung zur Integration von Text-zu-Video-, Bild-zu-Video-, Keyframe-Animations- und bidirektionalen Erweiterungs-Fähigkeiten in kohäsive Produktions-Workflows, Leistungsoptimierung zur Maximierung von LTX Videos 30x Geschwindigkeitsvorteil durch effizientes Batching, Caching und Ressourcenverwaltung, Custom-Studio-Integration zur Verbindung von LTX Video-Fähigkeiten mit Ihren bestehenden kreativen Tools, Asset-Management-Systemen und Content-Delivery-Infrastruktur sowie Ethisches KI-Consulting zur Kommunikation des Werts urheberrechtssicherer KI-Videos an Stakeholder und Kunden.

Ob Sie eine schlüsselfertige Echtzeit-Videoplattform benötigen, urheberrechtskonforme Marketing-Automatisierung aufbauen möchten oder Experten-Guidance zur Nutzung von LTX Videos einzigartiger Multiscale-Rendering-Technologie benötigen, unser Team kombiniert tiefe technische Expertise mit produktionsreifer Implementierungserfahrung. Wir helfen Ihnen, die Balance zwischen Open-Source-Flexibilität und Cloud-basierter Bequemlichkeit zu navigieren und sicherzustellen, dass jedes generierte Video rechtlich sicher für kommerzielle Nutzung ist. Vereinbaren Sie einen kostenlosen Beratungsanruf über unsere Kontaktseite, um zu erkunden, wie LTX Video Ihren Videoproduktions-Workflow mit Echtzeit-Generierung und garantierter Urheberrechtskonformität transformieren kann.

Offizielle Ressourcen

https://www.lightricks.com/ltxv