llm-marketing.de

Was ist RAG (Retrieval-Augmented Generation)?

 

Kurzdefinition 

RAG (Retrieval-Augmented Generation) ist eine KI-Architektur, bei der ein Large Language Model externe Datenquellen abruft und diese in die Antwortgenerierung integriert. Dadurch entstehen präzisere und kontextbezogene Antworten.

Technische Erklärung

Ein klassisches Large Language Model greift ausschließlich auf sein trainiertes Wissen zurück.

Bei RAG wird zusätzlich ein Retrieval-System eingesetzt. Dieses durchsucht eine externe Wissensquelle – beispielsweise eine Datenbank oder Dokumentensammlung – nach relevanten Informationen.

Der Ablauf ist typischerweise:

Nutzer stellt eine Anfrage -> Ein Suchsystem identifiziert  passende Dokumente  ->  Diese Inhalte werden als Kontext an das LLM übergeben -> Das LLM generiert eine Antwort auf Basis des erweiterten Kontexts 

Oft werden dafür Embeddings und Vektordatenbanken eingesetzt.

Wie funktioniert RAG in der Praxis?

  • Texte werden in kleine Abschnitte (Chunks) aufgeteilt
  • Jeder Abschnitt wird in einen Vektor umgewandelt (Embedding)
  • Eine Vektordatenbank speichert diese Embeddings
  • Bei einer Anfrage wird semantisch nach passenden Inhalten gesucht
  • Das LLM nutzt diese Informationen für die Antwort

So kombiniert RAG Retrieval-Technologie mit generativer KI.

Warum ist RAG für Unternehmen relevant?

RAG reduziert Halluzinationen und ermöglicht:

  • Interne Wissensassistenten
  • Kundenservice-Automatisierung
  • Produktdaten-Chatbots
  • Compliance-gestützte Antworten
  • Dokumentenbasierte Beratungssysteme

Unternehmen können so ihre eigenen Daten sicher und kontrolliert mit KI nutzbar machen.

Praxisbeispiel

Ein E-Commerce-Unternehmen verbindet sein Produktinformationssystem mit einem LLM.

Kunden können Fragen stellen wie: „Ist dieses Produkt für empfindliche Haut geeignet?“

Das System durchsucht interne Produktdaten und generiert eine fundierte Antwort.

Unterschied zwischen RAG und Fine-Tuning

Fine-Tuning verändert das Modell selbst.

RAG hingegen erweitert das Modell dynamisch mit externen Informationen, ohne es neu zu trainieren.

Verwandte Begriffe

  • Large Language Model (LLM)
  • Embeddings
  • Vector Database
  • Semantic Search
  • Chunking

 

FAQ

Warum ist RAG besser als nur ein LLM?
Weil es aktuelle und unternehmensspezifische Daten integriert.