← Zurück zur Bibliothek
Vector Databases Anbieter: Weaviate B.V.

Weaviate

Weaviate war Pionier der Open-Source-Vektordatenbank-Bewegung und kombiniert Vektor-Ähnlichkeitssuche mit traditionellen Datenbankfunktionen über eine GraphQL-API, die Entwickler lieben. Anders als reine Vektorsuchmaschinen bietet Weaviate eine vollständige Datenbankerfahrung: CRUD-Operationen, Filterung, Sortierung, Aggregationen und komplexe Abfragen—alles bei gleichzeitiger Sub-50ms-Vektor-Such-Latenz. 2019 gegründet und von Tag eins an Open-Source (BSD-3-Lizenz), bedient Weaviate Unternehmen, KI-native Startups und Forschungseinrichtungen, die vollständige Kontrolle über ihre Vektor-Infrastruktur benötigen. Die Plattform glänzt bei multimodaler Suche: gleichzeitig Text, Bilder und strukturierte Daten mit verschiedenen Embedding-Modellen abfragen (OpenAI, Cohere, HuggingFace, Custom). Hauptdifferenzierungsmerkmale: GraphQL-API (intuitive Abfragen versus REST), modulare Vectorizer-Architektur (eigene Embeddings mitbringen), horizontale Skalierung (Kubernetes-native) und Hybrid-Suche, die Vektor-Ähnlichkeit mit Keyword-BM25-Ranking kombiniert. Weaviate Cloud bietet verwaltetes Hosting mit automatischer Skalierung, während selbst-gehostete Deployments vollständige Datensouveränität bieten. Seit Oktober 2025 treibt Weaviate über 10.000 Produktions-Deployments an: E-Commerce-Suche, Wissensmanagement, Content-Discovery, Empfehlungs-Engines und Enterprise-RAG-Systeme. Das Ökosystem umfasst über 50 Integrationen (LangChain, LlamaIndex, Haystack), Vectorizer für alle wichtigen KI-Modelle und Module für Frage-Antwort, Textgenerierung und Klassifizierung. 21medien implementiert Weaviate für Kunden, die Open-Source-Flexibilität kombiniert mit Produktionszuverlässigkeit benötigen: von Architekturdesign und Deployment bis zu Query-Optimierung, Monitoring und laufender Wartung—für optimale Performance bei vollständiger Datenkontrolle.

Weaviate
vector-databases weaviate open-source graphql semantic-search rag

Übersicht

Weaviate bietet eine vollständige Vektordatenbank-Lösung, die die Einfachheit traditioneller Datenbanken mit der Kraft semantischer Suche kombiniert. Die GraphQL-API ermöglicht intuitive Abfragen: Entwickler konstruieren semantische Suchen mit denselben Mustern wie für REST-APIs, mit automatischer Query-Optimierung und Ergebnis-Ranking. Zum Beispiel erfordert die Suche nach 'Luxus-Elektrofahrzeugen' keine manuelle Vektorgenerierung—Weaviates Vectorizer-Module embedden die Abfrage automatisch, durchsuchen den Vektorraum und liefern Ergebnisse mit Relevanz-Scores, Metadaten und verwandten Objekten. Die Architektur besteht aus vier Ebenen: Storage (Objektspeicherung mit Vektor-Indizes), Vectorization (austauschbare Module für OpenAI, Cohere, HuggingFace, Sentence Transformers), Query Engine (GraphQL-Parser mit Vektor- und Skalar-Filterung) und Modules (Erweiterungen für spezifische Tasks wie Q&A, Zusammenfassung, generative Suche). Anders als Pinecones Serverless-Modell bietet Weaviate volle Infrastrukturkontrolle: On-Premise deployen, in Ihrer Cloud (AWS, GCP, Azure) oder Weaviate Cloud nutzen. Diese Flexibilität spricht Unternehmen mit Datensouveränitätsanforderungen, Datenschutzvorschriften (DSGVO, HIPAA) oder bestehender Kubernetes-Infrastruktur an.

Weaviates Multi-Tenancy-Architektur ermöglicht SaaS-Anwendungen, Tausende Kunden von einem einzigen Deployment zu bedienen: Jeder Tenant erhält isolierte Namespaces mit separaten Vektor-Indizes, konfigurierbaren Quotas und unabhängiger Skalierung. Hybrid-Suche kombiniert Vektor-Ähnlichkeit (semantische Bedeutung) mit BM25-Keyword-Ranking (exakte Übereinstimmungen), steuerbar über Alpha-Parameter (0=reine Keywords, 1=reine Vektoren, 0,5=ausgewogen). Cross-Reference-Funktionen verknüpfen Objekte über Collections hinweg: 'Produkte' mit 'Reviews', 'Autoren' mit 'Artikeln' verbinden, Graph-ähnliche Abfragen innerhalb der Vektorsuche ermöglichen. Generative Suche integriert LLMs direkt: relevante Vektoren abrufen, an GPT-4/Claude übergeben, Antworten generieren—alles in einer einzigen GraphQL-Abfrage. Die Plattform unterstützt Batch-Operationen (10.000+ Objekte/Sekunde), automatische Replikation und RAFT-basierter Konsens für hohe Verfügbarkeit. 21medien nutzt Weaviate für Kunden, die Open-Source-Flexibilität benötigen: Wir haben Multi-Region-Cluster mit über 100M Objekten deployed, Custom-Vectorizer für domänenspezifische Embeddings implementiert und Hybrid-Such-Parameter optimiert, wodurch 30% bessere Relevanz als reine Vektorsuche allein erreicht wurde.

Hauptfunktionen

  • GraphQL-API: Intuitive Abfragen mit automatischer Optimierung, verschachtelten Queries und Aggregationen versus manuelle REST-Aufrufe
  • Modulare Vectorizer: Jedes Embedding-Modell einstecken (OpenAI, Cohere, HuggingFace, Sentence Transformers, Custom) ohne Code-Änderungen
  • Multimodale Suche: Text, Bilder, Audio gleichzeitig abfragen mit verschiedenen Embedding-Modellen pro Datentyp
  • Hybrid-Suche: Vektor-Ähnlichkeit mit BM25-Keyword-Suche kombinieren, einstellbarer Alpha-Parameter für Ranking-Balance
  • Kubernetes-native: Horizontale Skalierung, automatisches Pod-Management, Stateful Sets für Persistenz, Helm-Charts für Deployment
  • Multi-Tenancy: Isolierte Namespaces für Tausende Kunden mit separaten Indizes, Quotas und Sicherheitsgrenzen
  • Cross-References: Objekte über Collections verknüpfen, Graph-ähnliche Abfragen innerhalb der Vektordatenbank (z.B. 'Produkte nahe Review')
  • Generative Suche: Integrierte LLM-Integration (GPT-4, Claude) für Frage-Antwort und Zusammenfassung in einer einzigen Abfrage
  • CRUD-Operationen: Vollständige Datenbankoperationen (Create, Read, Update, Delete) mit ACID-Garantien, nicht nur Insert-and-Search
  • Open-Source: BSD-3-Lizenz, überall selbst hosten (AWS, GCP, Azure, On-Premise), vollständige Datensouveränität und Datenschutz

Technische Architektur

Weaviates Architektur trennt Storage, Indexing und Query-Execution für unabhängige Skalierung. Storage Layer nutzt LSM (Log-Structured Merge) Trees für Objekte und HNSW (Hierarchical Navigable Small World) Graphen für Vektoren, beide für NVMe-SSDs optimiert. Jede Collection pflegt separate HNSW-Indizes mit konfigurierbaren Parametern: efConstruction (Build-Time-Genauigkeit vs Speed-Tradeoff), ef (Query-Time-Genauigkeit), maxConnections (Graph-Dichte) und dynamisches Pruning. Der Vectorization Layer bietet austauschbare Module: text2vec-openai (OpenAI-Embeddings), text2vec-cohere (Cohere-Embeddings), multi2vec-clip (Bild+Text), ref2vec (von Cross-References lernen) und Custom-Module via gRPC. Query Engine parst GraphQL, führt Vektorsuchen aus, wendet Filter an, führt Aggregationen durch und merged Ergebnisse—alles parallel über Shards. Sharding verteilt Daten horizontal mittels Consistent Hashing: Shard-Anzahl pro Collection konfigurieren (1 für kleine Daten, 16+ für Milliarden Objekte), automatisches Rebalancing beim Hinzufügen von Nodes. Replikation bietet hohe Verfügbarkeit: Replikationsfaktor konfigurieren (2-3), RAFT-Konsens gewährleistet Konsistenz, automatisches Failover behandelt Node-Ausfälle. Module erweitern Funktionalität: qna-transformers (Frage-Antwort), sum-transformers (Zusammenfassung), img2vec-neural (Bild-Embedding), Spellcheck (Tippfehlerkorrektur) und Custom-Module. Sicherheit umfasst API-Key-Authentifizierung, OIDC-Integration, rollenbasierte Zugriffskontrolle (RBAC) und Netzwerk-Policies für Kubernetes. 21medien entwirft Weaviate-Architekturen mit Optimierung für Performance und Kosten: Auswahl von Pod-Typen, Konfiguration von HNSW-Parametern, Implementierung von Caching-Strategien und Tuning von Query-Mustern für Sub-10ms p50-Latenz.

Häufige Anwendungsfälle

  • Enterprise-RAG-Systeme: Wissensbank-Suche mit Frage-Antwort, Dokumentenabruf mit generativen Zusammenfassungen, 70-85% Antwortgenauigkeit
  • E-Commerce-Semantische Suche: Produktsuche nach Beschreibung, visuelle Ähnlichkeitssuche, Hybrid-Keyword+Semantik-Ranking für 40% bessere Conversion
  • Content-Empfehlungen: Artikel-Vorschläge, Video-Empfehlungen, personalisierte Content-Feeds basierend auf User-Behavior-Embeddings
  • Kundenservice: Ticket-Routing, Wissensbank-Suche, automatische Antwortvorschläge mit generativen Antworten
  • Forschungsplattformen: Literatursuche, Patent-Discovery, wissenschaftliche Paper-Empfehlungen mit Zitationsgraph-Navigation
  • Media-Asset-Management: Bilder, Videos, Audio nach Inhalt und Metadaten durchsuchen, Duplikatserkennung, Rechteverwaltung
  • Mehrsprachige Suche: In einer Sprache abfragen, Ergebnisse in beliebiger Sprache abrufen mit mehrsprachigen Embeddings (z.B. mBERT, XLM-R)
  • Betrugserkennung: Ähnliche Transaktionen identifizieren, Anomalieerkennung im Embedding-Raum, Mustererkennung für Sicherheit
  • Knowledge Graphs: Entitäten über Collections verbinden, Graph-Abfragen innerhalb der Vektordatenbank, beziehungsbewusste Suche
  • SaaS-Anwendungen: Multi-Tenant-Architektur für Tausende Kunden mit isolierten Daten, konfigurierbare Pro-Tenant-Features

Integration mit 21medien-Services

21medien bietet End-to-End-Weaviate-Implementierungsservices. Phase 1 (Architektur & Planung): Wir analysieren Ihre Daten (Volumen, Update-Muster, Query-Typen), Infrastruktur (Kubernetes, Cloud-Provider, On-Premise) und Anforderungen (Latenz, Verfügbarkeit, Compliance), um optimale Weaviate-Deployments zu entwerfen. Schema-Design umfasst Collection-Struktur, Vectorizer-Auswahl, Cross-Reference-Beziehungen und Indexing-Strategien. Phase 2 (Deployment): Wir deployen Weaviate via Kubernetes (Helm-Charts), konfigurieren Auto-Scaling (HPA basierend auf CPU/Memory), richten Monitoring ein (Prometheus + Grafana) und implementieren Backup-Strategien (S3, Persistent Volumes). Multi-Region-Deployments umfassen Active-Active-Replikation, Geo-Routing und Disaster-Recovery. Phase 3 (Datenmigration): ETL-Pipelines nehmen Daten aus bestehenden Systemen auf (PostgreSQL, MongoDB, Elasticsearch), generieren Embeddings (Batch-Verarbeitung mit Rate-Limiting) und befüllen Weaviate-Collections mit Validierung. Phase 4 (Anwendungsintegration): Wir implementieren Such-Interfaces mit LangChain, LlamaIndex oder direkten GraphQL-Clients (Python, JavaScript, Go), optimieren Queries für Performance und fügen Caching-Layer (Redis) für häufige Abfragen hinzu. Generative-Search-Pipelines kombinieren Retrieval mit LLM-Generierung für Frage-Antwort. Phase 5 (Betrieb): Kontinuierliches Monitoring trackt Query-Latenz, Index-Größe, Memory-Verbrauch und Kosten. Performance-Tuning passt HNSW-Parameter, Shard-Allokation und Vectorizer-Auswahl an. Sicherheits-Audits gewährleisten korrekte Authentifizierung, Netzwerk-Isolation und Compliance (DSGVO, HIPAA, SOC 2). Beispiel: Für einen Legaltech-Kunden haben wir Weaviate Cloud mit 20M Dokumenten-Chunks deployed, Hybrid-Suche (BM25 + semantisch), generative QA mit GPT-4, erreichten 80ms p95-Latenz, 88% Antwortgenauigkeit, bedienen 10K täglich aktive Nutzer mit 99,98% Uptime—12K€/Monat versus 45K€+ mit verwalteten Alternativen bei gleichem Maßstab.

Code-Beispiele

Basis-Weaviate-Setup mit Python-Client: import weaviate; from weaviate.auth import AuthApiKey; # Mit Weaviate Cloud verbinden; client = weaviate.Client(url='https://your-cluster.weaviate.network', auth_client_secret=AuthApiKey('YOUR-API-KEY')); # Schema erstellen; schema = {'class': 'Document', 'vectorizer': 'text2vec-openai', 'properties': [{'name': 'title', 'dataType': ['text']}, {'name': 'content', 'dataType': ['text']}, {'name': 'category', 'dataType': ['string']}]}; client.schema.create_class(schema); # Objekte hinzufügen; docs = [{'title': 'KI-Leitfaden', 'content': 'Umfassender Leitfaden zu KI...', 'category': 'tutorial'}]; client.batch.configure(batch_size=100); with client.batch as batch: for doc in docs: batch.add_data_object(doc, 'Document') — Semantische Suche mit Hybrid-Ranking: result = client.query.get('Document', ['title', 'content', 'category']).with_hybrid(query='Machine-Learning-Tutorial', alpha=0.7).with_limit(5).with_additional(['score', 'distance']).do(); for item in result['data']['Get']['Document']: print(f'{item["title"]}: {item["_additional"]["score"]}') — Generative Suche mit LLM: result = client.query.get('Document', ['title', 'content']).with_near_text({'concepts': ['Rückgabepolitik']}).with_generate(single_prompt='Fasse dieses Dokument in 2 Sätzen zusammen: {content}').with_limit(3).do(); print(result['data']['Get']['Document'][0]['_additional']['generate']['singleResult']) — LangChain-Integration: from langchain.vectorstores import Weaviate; from langchain.embeddings import OpenAIEmbeddings; vectorstore = Weaviate(client, 'Document', 'content', embedding=OpenAIEmbeddings(), attributes=['title', 'category']); retriever = vectorstore.as_retriever(search_type='hybrid', search_kwargs={'alpha': 0.75}); docs = retriever.get_relevant_documents('wie man RAG implementiert') — 21medien bietet GraphQL-Schema-Design, Query-Optimierungs-Consulting und Performance-Tuning für produktionsreife Weaviate-Deployments.

Best Practices

  • Geeignete Vectorizer pro Datentyp wählen—text2vec-openai für Englisch, multi2vec-clip für Bilder, mehrsprachige Modelle für Global
  • HNSW-Parameter basierend auf Use Case tunen—hohes efConstruction (128-256) für besseren Recall, niedriger für schnelleres Indexing
  • Hybrid-Suche mit Alpha-Tuning nutzen—bei 0,7 starten (70% semantisch), basierend auf User-Feedback und Precision/Recall-Metriken anpassen
  • Batch-Operationen für Bulk-Imports implementieren—10K+ Objekte/Batch reduziert API-Overhead, parallele Worker für Durchsatz nutzen
  • Angemessene Shard-Anzahl konfigurieren—1 Shard pro 10M Objekte Richtlinie, Über-Sharding erhöht Query-Latenz, Unter-Sharding limitiert Skalierung
  • Memory-Verbrauch sorgfältig monitoren—HNSW-Indizes sind memory-intensiv, 4-8 Bytes pro Dimension pro Vektor, Kapazität entsprechend planen
  • Cross-References für Beziehungen nutzen—verwandte Objekte verknüpfen (Produkt→Review, Autor→Artikel) für reichhaltigere Queries als Metadaten allein
  • Generative-Search-Module nutzen—Retrieval mit LLM-Generierung für Frage-Antwort kombinieren, reduziert Anwendungscode-Komplexität
  • Korrekte Backup-Strategien implementieren—regelmäßige Snapshots zu S3, Wiederherstellungsprozeduren testen, Disaster-Recovery-Runbooks pflegen
  • Mit Weaviate Cloud für Prototyping starten—Free Tier zum Testen, einfache Skalierung, zu Self-Hosted migrieren wenn Infrastruktur bereit ist

Weaviate Cloud vs Self-Hosted

Weaviate bietet Deployment-Flexibilität passend zu organisatorischen Anforderungen. Weaviate Cloud (Serverless): Vollständig verwalteter Service mit automatischer Skalierung, Monitoring, Backups und Updates—ideal für Teams ohne Kubernetes-Expertise. Preisgestaltung basierend auf Storage (25$/10GB), Queries (1$/1M Operationen) und Compute (0,10$/Stunde pro Replica). Free Tier umfasst 100K Vektoren, perfekt fürs Prototyping. Vorteile: null Infrastrukturverwaltung, Instant-Provisionierung (5 Minuten), automatische Updates, 99,9% SLA. Nachteile: höhere Kosten bei Scale (10B+ Vektoren), Vendor-Abhängigkeit, begrenzte Anpassung. Self-Hosted (Kubernetes): Auf AWS EKS, GCP GKE, Azure AKS oder On-Premise-Kubernetes deployen. Volle Kontrolle über Infrastruktur, Custom-Module, Netzwerk-Policies und Compliance. Nur Infrastrukturkosten (EC2/GKE-Nodes, Storage, Bandbreite). Vorteile: niedrigere Kosten bei Scale (50-70% Einsparungen über 1B Vektoren), vollständige Datensouveränität, Custom-Integrationen, regulatorische Compliance (DSGVO, HIPAA, FedRAMP). Nachteile: erfordert Kubernetes-Expertise, operativer Overhead (Monitoring, Updates, Scaling), längere Time-to-Production. Hybrid-Ansatz: Mit Weaviate Cloud für Development/Staging starten, kritische Produktions-Workloads zu Self-Hosted für Kostenoptimierung migrieren. 21medien hilft Kunden bei der Wahl des optimalen Deployments: Weaviate Cloud für Startups und schnelles Prototyping, Self-Hosted für Unternehmen mit bestehender Kubernetes-Infrastruktur und Compliance-Anforderungen, Hybrid für Organisationen im Übergang zu Cloud-nativen Architekturen.

Offizielle Ressourcen

https://weaviate.io/