Webinar »Zuverlässiger Einsatz von Large Language Models (LLMs)«

LLM Weiterbildung Teil 2: Retrieval Augmented Generation (RAG)

LLM Weiterbildung Retrieval Augmented Generation (RAG)
© iStock.com | Greyfebruary

Teil 2: Retrieval Augmented Generation (RAG)

Retrieval Augmented Generation (RAG) ergänzt das Generieren eines Large Language Models (LLM, auf Deutsch: großes Sprachmodell) durch eine gute Suche, z.B. in einer Dokumentensammlung, in einer Datenbank oder in einem Knowledge Graph. Hierdurch lässt sich die Verlässlichkeit (Dependable AI) des Generierens deutlich steigern und gleichzeitig wird es möglich, das Potenzial von Large Language Models für eigene (interne) Dokumente und Daten zu nutzen – ganz ohne Fine-Tuning.


LLM-Weiterbildung: In diesem Webinar geben wir Ihnen einen Überblick über die Grundlagen von Retrieval Augmented Generation und führen Sie in das Thema ein. Im Anschluss freuen wir uns auf Ihre Fragen und eine offene Diskussion.

Termine
 
Dauer 90min (60min Vortrag, 30min Fragen + Diskussion)
Sprache deutsch 
Zielgruppe
Weiterbildung im Bereich LLM für IT-Verantwortliche, kleinere und mittelgroße Unternehmen, öffentliche Einrichtungen, Unternehmen oder Einrichtung mit Fokus auf Datenschutz und sensiblen Daten, Interessierte an den Themen Retrieval Augmented Generation und Wissensmanagement mit LLM

 

Das Webinar geht auf die folgenden Inhalte ein:

  • Was bedeutet Retrieval Augmented Generation (RAG)?
  • Wie funktioniert RAG?
  • Welche Quellen lassen sich für RAG anbinden? Wie lassen sie sich anbinden?
  • RAG mit Open Source LLM
  • Was ist bei der Auswahl eines LLM für RAG zu beachten?
  • RAG vs. Fine-Tuning
  • Vom Ausprobieren zur Produktion
  • Evaluieren eines RAG-Systems
  • Ist RAG das Richtige für meinen Anwendungsfall?

Thorsten Honroth arbeitet als Data Scientist in der Abteilung »Data Science« am Fraunhofer IESE. Sein Tätigkeitsschwerpunkt ist Natural Language Processing (NLP), was auch Semantische Suche, Sprachmodelle und Large Language Models einschließt. Zuvor war er unter anderem als wissenschaftlicher Mitarbeiter am Fraunhofer Institut für digitale Medizin (MEVIS) und als Machine Learning Engineer tätig. Er studierte Mathematik und Physik auf Lehramt für Gymnasien und Gesamtschulen und hat auch das zweite Staatsexamen erlangt.

Daniel Seifert, Fraunhofer iESE

Daniel Seifert arbeitet seit April 2023 als Data Scientist am Fraunhofer IESE. Er beschäftigt sich hauptsächlich mit den Themen Natural Language Processing mittels Large Language Models und mit der Erklärbarkeit von KI-Modellen. Zuvor studierte er Informatik an der Technischen Universität Kaiserslautern (jetzt RPTU) mit dem Schwerpunkt Software Engineering und arbeitete parallel als wissenschaftliche Hilfskraft im Bereich Safety Engineering am Fraunhofer IESE.

Lisa Joeckel, Fraunhofer IESE
© Fraunhofer IESE

Lisa Jöckel beschäftigt sich seit 2018 mit der Qualitätssicherung von KI-basierten Systemen als Senior Data Scientist am Fraunhofer IESE. Sie fokussiert sich auf Themen wie das Testen solcher Systeme und die Qualität der Testdaten, die systematische Qualitätsargumentation mittels Assurance Cases sowie die Bewertung von Unsicherheiten in den Entscheidungen datengetriebener Modelle. Sie studierte Informatik an der Technischen Universität Kaiserslautern mit Schwerpunkt Datenvisualisierung und Computergrafik.

Haben Sie noch Fragen?

Sprechen Sie uns an und profitieren Sie von Fraunhofer als Forschungs- und Industriepartner.

 

Kontaktieren Sie uns!

Wir unterstützen Sie gerne und nehmen uns für Sie Zeit!

Vereinbaren Sie einen Termin mit uns, gerne per E-Mail oder Telefon.