Das Seminar zum Certified Data Scientist Specialized in Assuring Safety vermittelt Expertenwissen zur Absicherung Künstlicher Intelligenz (KI) in sicherheitskritischen Bereichen.
Wir bieten einen Überblick über den Stand der Technik, um die KI Sicherheit gewährleisten zu können. An der Schnittstelle zwischen funktionaler Sicherheit (Safety) und Künstlicher Intelligenz befassen wir uns mit relevanten Normen und Normungsinitiativen. Wir schaffen das Bewusstsein für die Herausforderungen beim Einsatz von KI in sicherheitskritischen Lösungen, indem typische Problemstellungen aus diesem Spannungsfeld aufgezeigt werden.
Teilnehmer*innen erfahren im Seminar mögliche Strategien zur Absicherung Künstlicher Intelligenz. Gemeinsam erproben wir eine Auswahl von Ansätzen, um konkrete Herausforderungen zu adressieren und maßgeschneiderte Safety-Konzepte abzuleiten.
Die online durchgeführte Schulung beinhaltet einen hohen Anteil an Übungen und Interaktion, um die Inhalte praxisnah zu vermitteln und den Transfer in den beruflichen Alltag zu ermöglichen.
Grundkenntnisse in Statistik und Datenanalyse werden vorausgesetzt. Erste Erfahrungen im Umgang mit Maschinellen Lernverfahren sind von Vorteil. Vorkenntnisse aus dem Bereich Safety Engineering werden nicht vorausgesetzt.
Absicherung Künstlicher Intelligenz auf einen Blick:
Das Seminar Absicherung Künstlicher Intelligenz findet in deutscher Sprache statt. Begleitunterlagen liegen in englischer Sprache vor.
Tag 1: Motivation und Grundlagen
Tag 2: Standards und Maßnahmen für KI Sicherheit
Tag 3: Maßnahmen für sichere KI (cont.)
Tag 4: Sicherheitsargumentation
Tag 5: Zertifizierte Prüfung am Vormittag
Dr.-Ing. Rasmus Adler hat angewandte Informatik studiert und ist seit 2006 am Fraunhofer IESE beschäftigt. In seiner Promotion entwickelte er Fail-Operational Lösungen für aktive Sicherheitssysteme wie dem ESP. Anschließend widmete er sich als Projektleiter und Safety Experte dem modell-basierten Safety Engineering autonomer Systeme. Er koordinierte die Entwicklung von Lösungen, um zur Laufzeit das Risiko von geplantem/möglichen autonomen Systemverhalten bezüglich der aktuellen Situation zu messen und risikominierende Maßnahmen anzustoßen. In seiner aktuellen Position als Programm Manager für autonome Systeme widmet er sich insbesondere dem Risikomanagement vernetzter Cyber-Physischer Systeme. Um den Nutzen der einzelnen Systeme aber auch den Gesamtnutzen von Systemverbünden zu maximieren, setzt er auf ein kooperatives und zum Teil auf künstlicher Intelligenz basiertem Risikomanagement zur Laufzeit. Da aktuelle Sicherheitsnormen dieses innovative Risikomanagement nicht unterstützen, engagiert er sich in Normungsgremien und beteiligt sich an der Entwicklung normativer Anforderungen für autonome, vernetzte Cyber-Physische Systeme.
Dr. Michael Kläs ist seit Abschluss seines Informatikstudiums in der angewandten Forschung tätig und berät Unternehmen in den Bereichen Softwarequalität und Datenanalyse am Fraunhofer IESE. Im Laufe der letzten Dekade verantwortete er in zahlreichen Industrie- und Forschungsprojekten insbesondere den Aufbau von KPI-Systemen, die Evaluation neuer Technologien und die Entwicklung prädiktiver Analysen. In seiner Dissertation beschäftigte er sich mit der Vorhersage von Softwarefehlern unter Einbeziehung von Expertenwissen. Aktuell liegt sein Schwerpunkt im Bereich der Potenzialanalyse für datengetriebene Innovation und der Datenqualitäts- und Unsicherheitsanalyse bei Big-Data- und KI-Systemen. Als Autor zahlreicher Fachpublikationen engagiert er sich zudem als Hochschuldozent und als Experte bei der Normierung (DIN/VDE).
Janek Groß hat in Eichstätt Mathematik und Psychologie studiert. Dabei hat er jeweils den Bachelor of Science sowie das erste Staatsexamen für Gymnasiallehramt erworben. Sein Masterstudium Robotics Cognition Intelligence absolvierte er an der Fakultät Informatik der TU München. Während des Studiums eignete er sich weitreichende Kenntnisse in der mathematischen Statistik und den empirischen Wissenschaften an. Außerdem konnte er einschlägige Erfahrungen in der Entwicklung von größeren neuronalen Netzwerken und im Umgang mit Großrechnern gewinnen. Bei der Grundlagenforschung gilt sein Interesse besonders den Bereichen Zeitreihenanalyse und Informationstheorie.
Seit Anfang 2021 ist er in der Abteilung »Data Science« des Fraunhofer IESE tätig und arbeitet eng mit der Abteilung »Safety Engineering« zusammen. Zu seinen Aufgaben gehört die empirische Validierung und formale Absicherung von datengetriebenen KI-Modellen, die in autonomen Fahrzeugen und Robotern zur Anwendung kommen.
Dr. Adam Trendowicz ist Senior Science in der Abteilung Data Engineering am Fraunhofer-Institut für Experimentelles Software Engineering IESE in Kaiserslautern. Nach seiner Promotion zum Thema Softwareprojektaufwand und Risikoabschätzungsmodelle an der TU Kaiserslautern ist er im Bereich Data Science und datengetriebene Geschäftsinnovation tätig.
Dr. Trendowicz verfügt über mehr als 20 Jahre Erfahrung in der Analyse von Softwareprojekten und -produkten in unterschiedlichen Branchen. Er hat diverse Aktivitäten in den Bereichen Messen, Vorhersage und Verbesserung von Software in Softwareunternehmen unterschiedlicher Größe und in verschiedenen Domänen geleitet (u.a. in Deutschland, Japan und Indien). In diesem Kontext hat er Vorhersagemodelle für Softwarekosten und -qualität entwickelt und empirisch validiert.
Derzeit liegt der Tätigkeitsschwerpunkt von Dr. Trendowicz auf Datenqualität und -vorbereitung im Kontext von maschinellem Lernen sowie auf dem Lean Deployment von datengetriebenen Innovationen auf Basis von Lösungen aus den Bereichen maschinelles Lernen und Künstliche Intelligenz.
Dr. Trendowicz ist Mitbegründer des von der Fraunhofer-Allianz Big Data und Künstliche Intelligenz angebotenen Weiterbildungs- und Zertifizierungsprogramms „Data Scientist“. Er hat ferner mehrere Tutorials zu den Themen Business-IT-Abgleich, Softwarequalitätsmessung und Kostenschätzung gehalten. Schließlich ist er Co-Autor mehrerer Bücher und zahlreicher Veröffentlichungen in internationalen Fachzeitschriften und auf Konferenzen.
Pascal Gerber hat Informatik an der TU Kaiserslautern studiert. In seinen Abschlussarbeiten sowie während seiner Tätigkeit als studentische Hilfskraft am Fraunhofer IESE befasste er sich unter anderem mit Reinforcement Learning und Qualitätseinflussmodellen zur Bewertung von Unsicherheiten in den Entscheidungen datengetriebener Modelle.
Nach seinem Studium begann er 2021 in der Abteilung »Safety Engineering« zu arbeiten und hat dabei grundlegende Kompetenzen im Safety Engineering erworben. Seit 2023 ist er in der Abteilung »Data Science« tätig und beschäftigt sich gegenwärtig mit Qualitätseinflussmodellen.
Marc Wellstein schloss sein Masterstudium der Informatik (M.Sc.) an der TU Kaiserslautern im Juli 2021 ab. Seitdem ist er hauptberuflich als wissenschaftlicher Mitarbeiter in der Abteilung »Safety Engineering« am Fraunhofer-Institut für Experimentelles Software Engineering (IESE) in Kaiserslautern tätig. Seine Forschungsschwerpunkte sind dynamisches Risikomanagement, die Ergänzung etablierter Methoden der Entwurfssicherung durch Laufzeitsicherungsaspekte und sicheres, menschenähnliches Fahrverhalten in der simulationsbasierten Validierung für autonome Fahrsysteme. Im Allgemeinen liegt sein Schwerpunkt auf dem Automobilbereich.
Dr.-Ing. Patrick Wolf studierte an der Technischen Universität Kaiserslautern angewandte Informatik mit einem Schwerpunkt auf eingebetteten Systemen und Robotik. Seine Masterarbeit befasste sich mit der Einschätzung der Sensordatenqualität und der Wirkweise von Unsicherheiten in Perzeptionssystemen autonomer Fahrzeuge. Von 2016 bis 2023 war er wissenschaftlicher Mitarbeiter am Lehrstuhl für Robotersysteme der RPTU Kaiserslautern und entwickelte sichere und zuverlässige Autonomielösungen für Nutzfahrzeuge in Offroad-Umgebungen. Seine Promotion »Cognitive Processing in Behavior-Based Perception of Autonomous Off-Road Vehicles« schloss Dr. Wolf 2022 mit Auszeichnung ab.
Seit 2023 ist Dr. Wolf als »Senior Safety Engineer« in der Abteilung für »Safety Engineering« des Fraunhofer IESE tätig und entwickelt neue Lösungen im Bereich des sicheren autonomen Fahrens. Neben seinen Forschungs- und Industrietätigkeiten ist er im Rahmen des Fraunhofer-Zertifikatprogramms »Certified Data Scientist Specialized in Assuring Safety« als Dozent tätig. Seit dem Wintersemester 2023 ist er Lehrbeauftragter des Fachbereichs Informatik der RPTU und lehrt die Vorlesung »Offroad Robotics« am Campus Kaiserslautern.
Daniel Hillen erhielt seinen Master-Abschluss in Informatik an der Technischen Universität in Kaiserslautern, Deutschland. Seit 2020 ist er hauptberuflich beschäftigt als Wissenschaftlicher Mitarbeiter und Safety Engineer am Fraunhofer Institut für Experimentelles Software-Engineering (IESE). Sein Forschungsschwerpunkt ist die Entwicklung von Methoden zur Absicherung von autonomem Fahrzeugen. Dabei liegt sein Fokus auf der Modellierung der Fahrzeugumgebung und dem modellbasierten Safety Engineering.
Daniel Seifert arbeitet seit April 2023 als Data Scientist am Fraunhofer IESE. Er beschäftigt sich hauptsächlich mit den Themen Natural Language Processing mittels Large Language Models und mit der Erklärbarkeit von KI-Modellen. Zuvor absolvierte er den Informatik-Master an der Technischen Universität Kaiserslautern mit dem Schwerpunkt Software Engineering und arbeitete parallel als wissenschaftliche Hilfskraft im Bereich Safety Engineering am Fraunhofer IESE.
Bitte füllen Sie das untenstehende Anmeldeformular aus. Die maximale Teilnehmerzahl ist 15. Die Anmeldungen werden in der Reihenfolge ihres Eintreffens berücksichtigt.
Ist das Seminar zu Ihrem favorisierten Termin bereits ausgebucht, haben Sie die Möglichkeit, sich auf die Warteliste setzen zu lassen. Die Warteliste ist für Sie unverbindlich und kostenlos. Sobald ein Platz frei wird, kümmern wir uns schnellstmöglich um eine Nachbesetzung und würden uns dann mit Ihnen in Verbindung setzen.
Allgemeine Geschäftsbedingungen für die Teilnahme an Seminaren und Veranstaltungen des Fraunhofer IESE:
Selbstverständlich behandeln wir Ihre Daten vertraulich und geben sie nicht an Dritte weiter. Sie können der Einwilligung in die Verarbeitung Ihrer Daten jederzeit widersprechen.
Die Teilnahmegebühr ist steuerfrei gem. § 4 Nr. 22a UStG.
Sie umfasst Begleitunterlagen, die Prüfungsgebühr und Verpflegung bei Präsenzveranstaltungen.
Von unserer Abteilung Rechnungswesen erhalten Sie im Anschluss an die Schulung eine offizielle Rechnung an die uns genannte Adresse.
Das Zertifikat zum Seminar Absicherung von KI wird durch die Fraunhofer-Personenzertifizierungsstelle ausgestellt.
Als Zugangsvoraussetzungen gilt ein Studium oder äquivalente Qualifikationen durch einen Einzelnachweis.