Dependable AI / Verlässliche KI

Generative KI im Software Engineering: Szenarien und künftige Herausforderungen

Stellt generative KI Software Engineering auf den Kopf? Wie wird KI in der Softwareentwicklung eingesetzt und wie wird Software Engineering in der Ära der generativen KI zukünftig aussehen? In diesem Blogbeitrag antworten zwei unserer Experten auf diese Fragen. KI für…

Halluzinationen von generativer KI und großen Sprachmodellen (LLMs)

Generative Künstliche Intelligenz (KI) und insbesondere Large Language Models (LLMs) haben das Potenzial, unsere Interaktion mit Technologie und Wissensmanagement grundlegend zu verändern. Generative KI-Modelle sind in der Lage, menschenähnliche Inhalte (Text, Bilder, Audio, Video) zu erzeugen, was sie für viele…

Wie Normen und Standards die Zukunft von Künstlicher Intelligenz und Autonomen Systemen prägen

Im Wettbewerb um Technologien und Zukunftsmärkte spielen Normen und Standards eine entscheidende Rolle. Das Positionspapier »Wer sie gestaltet, beherrscht den Markt: Normen und Standards« der Fraunhofer-Gesellschaft weist darauf hin, wie wichtig die Gestaltung von Normung und Standardisierung ist und formuliert…

BADGERS: Die Robustheit Künstlicher Intelligenz durch Fehlerinjektion untersuchen

Wie kann man KI-Systeme testen, und warum können schlechte Daten dabei helfen? In diesem Blogbeitrag erklärt unser KI-Experte Dr. Julien Siebert, wie man KI-Systeme durch Fehlerinjektion mit unserer Badgers-Bibliothek testen kann. Auswirkungen mangelnder Datenqualität Datenqualitätsprobleme sind bei der Entwicklung und…

Dealing with uncertainties of Machine Learning components (Part 1)

The use of Machine Learning (ML) components in safety-critical or financially critical systems is challenging. At Fraunhofer IESE, we address this challenge by systematically engineering comprehensive multi-layered safety concepts and explicitly considering sources of uncertainties. This specifically includes situations at…

Datenqualität und Kausalität bei auf Machine Learning basierender Software

Eine gute Datenqualität ist entscheidend für die Zuverlässigkeit von Systemen, die auf Machine Learning und Künstlicher Intelligenz basieren. Data Scientists verbringen daher die meiste Zeit damit, Daten vorzubereiten und Probleme mit der Datenqualität zu lösen. In diesem Blogbeitrag erläutert unser…

DIN SPEC 92005 – Standardizing uncertainty in machine learning?

DIN SPEC 92005 has been publicly available since January 2024. It deals with the quantification of uncertainties in Machine Learning (ML) and was developed in collaboration with Fraunhofer IESE, which also provided the deputy chairman. Dieser Artikel ist auch in…

Klinische Entscheidungsunterstützungssysteme (engl. Clinical Decision Support Systems) erfahren eine Neuauflage und können helfen, unser Gesundheitssystem zu entlasten.

Diagnose auf Knopfdruck: Wenn klinische Entscheidungsunterstützungssysteme den entscheidenden Hinweis geben!

In seiner Comicreihe »Näher als wir denken!« prophezeite der amerikanische Künstler Arthur Radebaugh bereits in den 1960er Jahren den Einsatz von Computern zur Entscheidungsunterstützung in der Medizin. In den 1970er Jahren gingen die ersten klinischen Entscheidungsunterstützungssysteme (engl.: »Clinical Decision Support…

DIN SPEC 92005 – Unsicherheit im Maschinellen Lernen standardisieren?

Die DIN SPEC 92005 ist seit Januar 2024 öffentlich verfügbar. Sie beschäftigt sich mit der Quantifizierung von Unsicherheiten im Maschinellen Lernen (ML) und entstand unter Mitwirkung des Fraunhofer IESE, das auch den stellvertretenden Obmann stellte. This article is also available…

Autonomes Fahren im off-road Bereich.

Autonomes Fahren: Denken wie ein Mensch

Das autonome Fahren, insbesondere abseits von Straßen, ist aufgrund der Umgebungsvielfalt und Unvorhersehbarkeit unterschiedlicher Situationen fehleranfällig. Ein Lösungsansatz für dieses Problem ist es, durch das Imitieren menschlicher Denkmuster die Leistung von Künstlicher Intelligenz (KI) zu steigern, um ein Kontextbewusstsein in…