Dr. Julien Siebert

Julien Siebert is working as senior AI Expert in the Data Science department of Fraunhofer IESE. He studied Artificial Intelligence and Engineering Science and got his PhD in Computer Science. His professional interests include data science processes, artificial intelligence and complex systems.

Generative KI im Software Engineering: Szenarien und künftige Herausforderungen

Stellt generative KI Software Engineering auf den Kopf? Wie wird KI in der Softwareentwicklung eingesetzt und wie wird Software Engineering in der Ära der generativen KI zukünftig aussehen? In diesem Blogbeitrag antworten zwei unserer Experten auf diese Fragen. KI für…

Halluzinationen von generativer KI und großen Sprachmodellen (LLMs)

Generative Künstliche Intelligenz (KI) und insbesondere Large Language Models (LLMs) haben das Potenzial, unsere Interaktion mit Technologie und Wissensmanagement grundlegend zu verändern. Generative KI-Modelle sind in der Lage, menschenähnliche Inhalte (Text, Bilder, Audio, Video) zu erzeugen, was sie für viele…

BADGERS: Die Robustheit Künstlicher Intelligenz durch Fehlerinjektion untersuchen

Wie kann man KI-Systeme testen, und warum können schlechte Daten dabei helfen? In diesem Blogbeitrag erklärt unser KI-Experte Dr. Julien Siebert, wie man KI-Systeme durch Fehlerinjektion mit unserer Badgers-Bibliothek testen kann. Auswirkungen mangelnder Datenqualität Datenqualitätsprobleme sind bei der Entwicklung und…

Datenqualität und Kausalität bei auf Machine Learning basierender Software

Eine gute Datenqualität ist entscheidend für die Zuverlässigkeit von Systemen, die auf Machine Learning und Künstlicher Intelligenz basieren. Data Scientists verbringen daher die meiste Zeit damit, Daten vorzubereiten und Probleme mit der Datenqualität zu lösen. In diesem Blogbeitrag erläutert unser…

Wie funktionieren LLMs? Ein Blick ins Innere großer Sprachmodelle

In diesem Blogbeitrag erklären KI-Expertinnen und Experten, welche Komponenten zu LLMs (Large Language Models, deutsch: große Sprachmodelle) gehören. Die Funktionsweise eines LLMs: 4 Schritte bis zum Ergebnis Große Sprachmodelle, wie wir sie heute kennen, sind nur die Spitze des Eisbergs….

Retrieval Augmented Generation (RAG): Chatten mit den eigenen Daten

Retrieval Augmented Generation (RAG) ergänzt das Generieren eines Large Language Models (LLM, auf Deutsch: großes Sprachmodell) durch eine gute Suche, z.B. in einer Dokumentensammlung, in einer Datenbank oder in einem Knowledge Graph. Hierdurch lässt sich die Verlässlichkeit (Dependable AI) des…

Prompt Engineering: wie man mit großen Sprachmodellen kommuniziert

In diesem Blogbeitrag erklären unsere Expertinnen und Experten, was Prompt Engineering ist und wie diese Techniken für die Nutzung von LLMs (Large Language Models, deutsch: große Sprachmodelle) nützlich sein können. Weitere Blog-Beiträge rund um generative KI und große Sprachmodelle: Was…

Open Source Large Language Models selbst betreiben

Ein Open Source Large Language Model (LLM, auf Deutsch: großes Sprachmodell) bietet zahlreiche Vorteile, und diese großen Sprachmodelle haben im Jahr 2023 einen weiten Sprung nach vorne gemacht: Sie sind sehr leistungsfähig geworden und können mittlerweile mit moderaten Hardwareanforderungen betrieben…

Was sind Large Language Models? Und was ist bei der Nutzung von KI-Sprachmodellen zu beachten?

In diesem Artikel tauchen wir in die faszinierende Welt der KI-Sprachmodelle ein, wobei der Schwerpunkt auf den Large Language Models (LLMs) liegt, zu denen bekannte Vertreter wie ChatGPT gehören. Sie wollen Künstliche Intelligenz für Ihr Unternehmen nutzen? Erfahren Sie, wie…

Dynamische Systems-of-Systems für Smart Cities der Zukunft

Im Projekt DynaSoS beschäftigte sich das Fraunhofer IESE seit Anfang 2022 mit dynamischen Systems-of-Systems (SoS). Ein System von Systemen beschreibt eine Konstellation verschiedener Systeme, die ein gemeinsames Ziel erreichen wollen, das allerdings keines der Systeme alleine erreichen könnte. Im Bereich…