Webinar »Zuverlässiger Einsatz von Large Language Models (LLMs)«

LLM Weiterbildung Teil 2: Retrieval Augmented Generation (RAG)

LLM Weiterbildung Retrieval Augmented Generation (RAG)
© iStock.com | Greyfebruary

Teil 2: Retrieval Augmented Generation (RAG)

Retrieval Augmented Generation (RAG) ergänzt das Generieren eines Large Language Models (LLM, auf Deutsch: großes Sprachmodell) durch eine gute Suche, z.B. in einer Dokumentensammlung, in einer Datenbank oder in einem Knowledge Graph. Hierdurch lässt sich die Verlässlichkeit (Dependable AI) des Generierens deutlich steigern und gleichzeitig wird es möglich, das Potenzial von Large Language Models für eigene (interne) Dokumente und Daten zu nutzen – ganz ohne Fine-Tuning.


LLM-Weiterbildung: In diesem Webinar geben wir Ihnen einen Überblick über die Grundlagen von Retrieval Augmented Generation und führen Sie in das Thema ein. Im Anschluss freuen wir uns auf Ihre Fragen und eine offene Diskussion.

Termin
nächster Termin voraussichtlich Ende Januar / Anfang Februar
Dauer 90 min (60 min Vortrag, 30 min Fragen + Diskussion)
Teilnahmegebühr 150,- Euro
Sprache deutsch 
Zielgruppe
Weiterbildung im Bereich LLM für IT-Verantwortliche, kleinere und mittelgroße Unternehmen, öffentliche Einrichtungen, Unternehmen oder Einrichtung mit Fokus auf Datenschutz und sensiblen Daten, Interessierte an den Themen Retrieval Augmented Generation und Wissensmanagement mit LLM

 

Das Webinar geht auf die folgenden Inhalte ein:

  • Was bedeutet Retrieval Augmented Generation (RAG)?
  • Wie funktioniert RAG?
  • Welche Quellen lassen sich für RAG anbinden? Wie lassen sie sich anbinden?
  • RAG mit Open Source LLM
  • Was ist bei der Auswahl eines LLM für RAG zu beachten?
  • RAG vs. Fine-Tuning
  • Vom Ausprobieren zur Produktion
  • Evaluieren eines RAG-Systems
  • Ist RAG das Richtige für meinen Anwendungsfall?

Thorsten Honroth arbeitet als Data Scientist in der Abteilung »Data Science« am Fraunhofer IESE. Sein Tätigkeitsschwerpunkt ist Natural Language Processing (NLP), was auch Semantische Suche, Sprachmodelle und Large Language Models einschließt. Zuvor war er unter anderem als wissenschaftlicher Mitarbeiter am Fraunhofer Institut für digitale Medizin (MEVIS) und als Machine Learning Engineer tätig. Er studierte Mathematik und Physik auf Lehramt für Gymnasien und Gesamtschulen und hat auch das zweite Staatsexamen erlangt.

Daniel Seifert, Fraunhofer iESE

Daniel Seifert arbeitet seit April 2023 als Data Scientist am Fraunhofer IESE. Er beschäftigt sich hauptsächlich mit den Themen Natural Language Processing mittels Large Language Models und mit der Erklärbarkeit von KI-Modellen. Zuvor studierte er Informatik an der Technischen Universität Kaiserslautern (jetzt RPTU) mit dem Schwerpunkt Software Engineering und arbeitete parallel als wissenschaftliche Hilfskraft im Bereich Safety Engineering am Fraunhofer IESE.

Julien Siebert
© Fraunhofer IESE

Julien Siebert arbeitet als Senior KI-Experte in der Abteilung Data Science am Fraunhofer IESE. Er studierte Künstliche Intelligenz und Ingenieurwissenschaften und promovierte in Informatik. Zu seinen beruflichen Interessen gehören Data Science Prozesse, Künstliche Intelligenz und komplexe Systeme.

© Fraunhofer IESE

Patricia Kelbert ist seit 2017 am Fraunhofer IESE, und seit 2020 in der Abteilung Data Science als Data Scientist tätig. Sie hat in Frankreich an der »Université de Strasbourg« Bioinformatik studiert und dort im Jahr 2005 ihren Master abgeschlossen. Sie beschäftigt sich seit langem intensiv mit Programmierung, Software Engineering, Datenbanken und Datennutzungskontrolle über verschiedene Fachgebiete hinweg (Biodiversität, Genetik, Pharma & Gesundheit, Landwirtschaft).

Haben Sie noch Fragen?

Sprechen Sie uns an und profitieren Sie von Fraunhofer als Forschungs- und Industriepartner.

 

Kontaktieren Sie uns!

Wir unterstützen Sie gerne und nehmen uns für Sie Zeit!

Vereinbaren Sie einen Termin mit uns, gerne per E-Mail oder Telefon.