Künstliche Intelligenz

Künstliche Intelligenz steckt heutzutage in vielen Systemen. Wir sind auf die Absicherung der Technologie in kritischen Bereichen spezialisiert.

Dealing with uncertainties of Machine Learning components (Part 1)

The use of Machine Learning (ML) components in safety-critical or financially critical systems is challenging. At Fraunhofer IESE, we address this challenge by systematically engineering comprehensive multi-layered safety concepts and explicitly considering sources of uncertainties. This specifically includes situations at…

Datenqualität und Kausalität bei auf Machine Learning basierender Software

Eine gute Datenqualität ist entscheidend für die Zuverlässigkeit von Systemen, die auf Machine Learning und Künstlicher Intelligenz basieren. Data Scientists verbringen daher die meiste Zeit damit, Daten vorzubereiten und Probleme mit der Datenqualität zu lösen. In diesem Blogbeitrag erläutert unser…

Plattformökonomie am Ende? Welchen Einfluss haben KI, Metaverse und Nachhaltigkeit auf digitale Geschäftsmodelle?

Viele Unternehmen nutzen die Chancen der Plattformökonomie, auch abseits der bekannten Beispiele wie »Uber«, »eBay« oder »Amazon Marketplace«. Erfolgreiche Digitale Ökosysteme, wie wir am Fraunhofer IESE die konkreten Unternehmungen der Plattformökonomie nennen, finden sich außer im Silicon Valley ebenso in…

Wie funktionieren LLMs? Ein Blick ins Innere großer Sprachmodelle

In diesem Blogbeitrag erklären KI-Expertinnen und Experten, welche Komponenten zu LLMs (Large Language Models, deutsch: große Sprachmodelle) gehören. Die Funktionsweise eines LLMs: 4 Schritte bis zum Ergebnis Große Sprachmodelle, wie wir sie heute kennen, sind nur die Spitze des Eisbergs….

Retrieval Augmented Generation (RAG): Chatten mit den eigenen Daten

Retrieval Augmented Generation (RAG) ergänzt das Generieren eines Large Language Models (LLM, auf Deutsch: großes Sprachmodell) durch eine gute Suche, z.B. in einer Dokumentensammlung, in einer Datenbank oder in einem Knowledge Graph. Hierdurch lässt sich die Verlässlichkeit (Dependable AI) des…

Die Zukunft des Sprachassistenten: Datenhoheit durch Spracherkennung mit eigenem LLM Voice Bot

In einer Welt, in der Technologie immer weiter voranschreitet, sind sprachgesteuerte Assistenten zu einem nicht mehr wegzudenkenden Teil unseres Alltags geworden. Von IBM Watson und Aleph Alpha Luminous über Apple Siri und Amazon Alexa bis hin zu Google Assistant und…

Prompt Engineering: wie man mit großen Sprachmodellen kommuniziert

In diesem Blogbeitrag erklären unsere Expertinnen und Experten, was Prompt Engineering ist und wie diese Techniken für die Nutzung von LLMs (Large Language Models, deutsch: große Sprachmodelle) nützlich sein können. Weitere Blog-Beiträge rund um generative KI und große Sprachmodelle: Was…

Large action models (LAMs), tool learning, function calling and Agents

Zu Beginn des Jahres 2024 wurde der Begriff „Large Action Model“ (LAM) mit dem Release von Rabbit R1 in der Öffentlichkeit bekannt. Parallel dazu haben sich Large Language Models (LLM) und multimodale Modelle als nützlich erwiesen, um Roboter besser zu…

The engineering of smartness in software-based systems

In the first part of this blog series, we discussed the pursuit of smartness in software-based systems and showed how context awareness often enables what is perceived by end users as “smart behavior”. In today’s post, we address the question…

Neighborhood Diagnostics – Entwicklung eines Digitalen Ökosystems für digitale Diagnostik

Die medizinische Versorgung auf dem Land steht vor großen Herausforderungen. Praxen können kaum neue Patient*innen aufnehmen, und es fehlt auch an Nachfolger*innen. Die Wartezeiten für Facharzttermine sind lang und die Diagnosefindung dauert ebenfalls immer länger. In diesem Blogartikel stellen wir…