Was ist Amazon Bedrock Knowledge Bases?
Amazon Bedrock Knowledge Bases ist ein vollständig verwalteter RAG-as-a-Service (Retrieval-Augmented Generation) von AWS. Der Dienst ermöglicht es, unternehmensspezifische Dokumente und Daten nahtlos in Foundation-Modelle zu integrieren, ohne eine eigene Vektordatenbank-Infrastruktur aufbauen und betreiben zu müssen. Dokumente aus S3, SharePoint, Confluence oder anderen Quellen werden automatisch verarbeitet, in Vektoren umgewandelt und für semantische Suchanfragen bereitgestellt.
Der Ingestion-Prozess ist vollständig automatisiert: Bedrock Knowledge Bases teilt Dokumente nach konfigurierbaren Strategien in Chunks auf, konvertiert sie mit einem Embedding-Modell (z.B. Amazon Titan Embeddings, Cohere Embed) in Vektoren und speichert diese im gewählten Vektorstore. Unterstützte Vektordatenbanken sind Amazon OpenSearch Serverless, Aurora PostgreSQL mit pgvector, Pinecone, Redis Enterprise Cloud und MongoDB Atlas. Bei jeder Abfrage werden die relevantesten Chunks semantisch gesucht und als Kontext an das Foundation-Modell übergeben.
Bedrock Knowledge Bases lässt sich direkt mit Amazon Bedrock Agents verbinden, sodass KI-Agenten bei Bedarf automatisch auf Unternehmenswissen zugreifen können. Für präzisere Ergebnisse bietet der Dienst Metadata Filtering, mit dem Suchanfragen auf bestimmte Dokumenttypen, Zeiträume oder Abteilungen eingeschränkt werden können. Guardrails-Integration ermöglicht die Filterung sensibler Informationen in den Suchergebnissen.
innFactory unterstützt Sie bei der Konzeption und Umsetzung von RAG-Architekturen auf Basis von Amazon Bedrock Knowledge Bases, von der Datenquellen-Integration über die Wahl der optimalen Chunking-Strategie bis zum produktiven Betrieb und der kontinuierlichen Qualitätssicherung der Retrieval-Ergebnisse.
Typische Anwendungsfälle
Häufig gestellte Fragen
Was ist Retrieval-Augmented Generation (RAG)?
RAG kombiniert ein großes Sprachmodell mit einer externen Wissensdatenbank. Statt sich nur auf das im Training erlernte Wissen zu verlassen, sucht das Modell bei jeder Anfrage zunächst relevante Dokumente aus der Wissensdatenbank und nutzt diese als Kontext für die Antwortgenerierung. Das Ergebnis sind präzisere, aktuelle und belegbare Antworten.
Welche Vektordatenbanken unterstützt Bedrock Knowledge Bases?
Bedrock Knowledge Bases unterstützt Amazon OpenSearch Serverless (empfohlen), Amazon Aurora PostgreSQL mit pgvector, Pinecone, Redis Enterprise Cloud und MongoDB Atlas als Vektor-Stores. Für neue Projekte empfehlen wir OpenSearch Serverless, da es vollständig verwaltet ist und nahtlos mit anderen AWS-Diensten integriert.
Welche Datenquellen kann ich verbinden?
Aktuell werden Amazon S3 (PDF, Word, HTML, CSV, JSON, Markdown), Confluence, SharePoint, Salesforce und Web Crawler als Datenquellen unterstützt. Dokumente werden automatisch in Chunks aufgeteilt, in Vektoren umgewandelt und im konfigurierten Vektorstore gespeichert.
Was kostet Amazon Bedrock Knowledge Bases?
Die Kosten setzen sich zusammen aus: Embedding-Modell-Aufrufen (beim Indizieren und bei jeder Abfrage), Speicherkosten des Vektorstores (z.B. OpenSearch Serverless OCU-Stunden) und Inferenzkosten des Foundation-Modells für die Antwortgenerierung. Reine Abfragekosten ohne Generierung sind in vielen Szenarien deutlich geringer als vollständige LLM-Anfragen.
Kann ich die Chunk-Strategie anpassen?
Ja, Bedrock Knowledge Bases bietet mehrere Chunking-Strategien: Fixed-Size Chunking (definierte Token-Anzahl pro Chunk), Semantic Chunking (intelligente Aufteilung basierend auf Inhalt), Hierarchical Chunking (verschachtelte Chunks für verschiedene Granularitätsstufen) und Custom Chunking über Lambda-Funktionen.