Was ist Amazon Bedrock Guardrails?
Amazon Bedrock Guardrails ist ein KI-Sicherheitsdienst, der eine konfigurierbare Schutzschicht zwischen Benutzereingaben und Foundation-Modell-Ausgaben implementiert. Unternehmen, die generative KI-Anwendungen betreiben, stehen vor der Herausforderung, das Verhalten von LLMs zuverlässig zu kontrollieren und sicherzustellen, dass Ausgaben den internen Richtlinien, regulatorischen Anforderungen und Markenwerten entsprechen. Guardrails adressiert diese Anforderungen ohne Eingriff in das zugrundeliegende Modell und ist mit allen in Amazon Bedrock verfügbaren Foundation-Modellen kompatibel.
Der Dienst bietet mehrere unabhängig konfigurierbare Schutzebenen: Content Filter erkennen und blockieren schädliche Inhalte in Kategorien wie Hassrede, Gewalt oder sexuelle Inhalte mit einstellbaren Schwellenwerten. Denied Topics erlauben es, Themenbereiche in natürlicher Sprache zu definieren, über die ein Assistent nicht sprechen soll, etwa keine Investmentberatung durch einen Kundenservice-Bot. Word Filter blockieren spezifische Begriffe oder Phrasen, und PII Redaction erkennt und anonymisiert personenbezogene Daten automatisch in Ein- und Ausgaben.
Besonders wertvoll für RAG-basierte Anwendungen ist das Contextual Grounding Feature: Es prüft, ob die Modellantwort durch den bereitgestellten Quellenkontext gedeckt ist, und erkennt Halluzinationen mit einem konfigurierbaren Schwellenwert. Damit können Unternehmen sicherstellen, dass KI-Assistenten nur auf Basis verifizierter Unternehmensdaten antworten. Zusätzlich schützt der Prompt Attack Filter vor bekannten Angriffsmustern wie Prompt Injection und Jailbreaking-Versuchen.
Als AWS Reseller mit Fokus auf generative KI hilft innFactory Ihnen, eine unternehmensgerechte AI-Governance-Strategie mit Amazon Bedrock Guardrails umzusetzen, von der Richtlinienentwicklung über die technische Konfiguration bis zur Integration in bestehende CI/CD-Pipelines.
Typische Anwendungsfälle
Häufig gestellte Fragen
Was sind Amazon Bedrock Guardrails?
Bedrock Guardrails ist eine Sicherheitsschicht, die zwischen Benutzeranfragen und Foundation-Modell-Antworten eingefügt wird. Sie filtert unerwünschte Inhalte, erkennt sensible Daten, beschränkt Themenbereiche und schützt vor Prompt-Injektionen, ohne das zugrundeliegende Modell verändern zu müssen.
Was sind Content Filter in Bedrock Guardrails?
Content Filter erkennen und blockieren schädliche Inhalte in sechs Kategorien: Hassrede, Beleidigungen, sexuelle Inhalte, Gewalt, Fehlinformationen über Wahlen und Prompt-Angriffe. Jede Kategorie kann separat mit unterschiedlichen Schwellenwerten (None, Low, Medium, High) konfiguriert werden.
Wie funktioniert PII-Redaktion in Guardrails?
Bedrock Guardrails erkennt personenbezogene Daten (PII) wie Namen, E-Mail-Adressen, Telefonnummern, Kreditkartennummern und Sozialversicherungsnummern automatisch in Ein- und Ausgaben. Erkannte PII kann entweder anonymisiert (durch Platzhalter ersetzt) oder vollständig blockiert werden.
Was sind Denied Topics?
Denied Topics erlauben es, Themen zu definieren, über die ein KI-Assistent nicht sprechen soll, unabhängig vom verwendeten Foundation-Modell. Beispiel: Ein Kundenservice-Bot soll keine Investmentberatung geben. Topics werden in natürlicher Sprache beschrieben, kein Regelwerk erforderlich.
Was ist Contextual Grounding in Bedrock Guardrails?
Contextual Grounding prüft, ob die Antwort des Modells durch den bereitgestellten Kontext (z.B. aus einer Knowledge Base) gedeckt ist. Antworten, die über den Kontext hinausgehen (Halluzinationen), werden erkannt und können blockiert oder gekennzeichnet werden. Dies ist besonders wichtig für RAG-Anwendungen.