
Das Fraunhofer IESE erforscht den Einsatz von KI, um die Effizienz im Software Engineering zu steigern und gleichzeitig die Qualität sicherzustellen.
Derzeit besteht ein enormes Interesse an generativer KI, was angesichts der bisherigen Erfolge und der weiterhin rasant wachsenden Innovationsgeschwindigkeit durchaus gerechtfertigt ist. Große Sprachmodelle bzw. LLMs (Large Language Models) wie GPT-4 verfügen bereits heute über beeindruckende Fähigkeiten, und ihre Weiterentwicklung verläuft äußerst dynamisch. Beispielsweise sorgte DeepSeek (chinesisches KI-Modell) für Aufsehen, da es dank vermeintelich verbesserter Ressourceneffizienz und der Veröffentlichung als Open Source hohe Aufmerksamkeit erlangte – ein Umstand, der die Verbreitung von KI-Unterstützung weiter befördern dürfte.
Es ist absehbar, dass die verstärkte Integration von KI den Arbeitsalltag in vielen Bereichen nachhaltig verändern wird. Dies gilt auch für das Software Engineering, das seit jeher im Fokus des Fraunhofer IESE steht. In erster Linie verspricht KI hier eine deutliche Steigerung von Effizienz und Produktivität, weshalb sich aktuell viele Unternehmen intensiv mit dem Thema auseinandersetzen.
Momentan werden zahlreiche neue KI-gestützte Werkzeuge vorgestellt. Die mittlerweile verfügbaren Tools decken bereits eine breite Palette von Aufgaben im Softwareentwicklungslebenszyklus ab – von der Anforderungserhebung und Architektur über die Implementierung bis hin zur Validierung. Entsprechend wächst die Zahl der Nutzerinnen solcher AI-Tools rasant. Aktuelle (wenn auch nicht repräsentative) Umfragen geben an, dass bereits über 60 % [Stack Overflow Survey] bzw. sogar über 80 % [The Pragmatic Engineer] der Entwicklerinnen und Entwickler entsprechende Tools nutzen, Tendenz stark steigend.
ChatGPT ist insgesamt das populärste Werkzeug [The Pragmentic], allerdings sehr generisch einsetzbar. Daneben gibt es zahlreiche spezialisiertere Tools, die sich auf typische Aufgaben im Software Engineering fokussieren. Programmierassistenten wie GitHub CoPilot, Amazon CodeWhisperer, Cody AI, Mutable AI oder Tabnine versprechen erhebliche Produktivitätssteigerungen. Darüber hinaus existieren Lösungen für das Software Testing und das Schreiben von Testfällen (Codium AI), für die Dokumentationserstellung (Mintlify Writer), für das Bug-Tracking (Bugasura) und mehr. Neuere LLM-basierte Multi-Agenten-Entwicklungsplattformen wie Devin, GPT-Pilot oder CrewAI zielen darauf ab, nicht nur einzelne Aspekte, sondern große Teile des Softwareentwicklungsprozesses zu automatisieren.
All das klingt sehr vielversprechend, dennoch gibt es signifikante Herausforderungen, die eine umfassende Anwendung dieser neuen Werkzeuge ausbremsen. Besonders relevant sind die Verlässlichkeit und Nachvollziehbarkeit der Tools, die wiederum die Qualität des entwickelten Systems beeinflussen. Wie kann also die Qualität sichergestellt werden? Kann diese Aufgabe effektiv und effizient von Menschen übernommen werden? Gibt es technische Lösungen, die hierbei unterstützen? Und bleibt am Ende tatsächlich ein Gewinn an Effizienz und Produktivität bestehen?
Ein besonders kniffliger Fall sind sicherheitskritische Systeme, die durch den Trend zu mehr Automatisierung und Autonomie immer öfter zum Einsatz kommen. Solche Systeme dürfen ohne einen angemessenen Sicherheitsnachweis nicht in den Markt eingeführt werden. Doch wie kann die Sicherheit nachgewiesen werden, wenn KI-gestützte Werkzeuge in der Entwicklung zum Einsatz kamen? Sicherheitsnormen erfordern, dass alle verwendeten Entwicklungswerkzeuge auf potenzielle Fehlfunktionen und deren Auswirkungen auf die Sicherheit des Endprodukts untersucht werden. Bei LLM-basierten Werkzeugen ist dies – zumindest was den LLM-Anteil betrifft – derzeit nicht realisierbar. Es muss allerdings nicht notwendigerweise die LLM selbst »sicher« werden, aber die Sicherheit muss in der Gesamtbetrachtung, also inklusive aller umrahmenden Maßnahmen, schlüssig argumentierbar sein.
Diesbezüglich hat das IESE langjährige Erfahrung, einerseits was das Safety Engineering im Allgemeinen, aber auch was die diesbezügliche Bewertung von Werkzeugen im Speziellen angeht.
Das Fraunhofer IESE ist seit über 25 Jahren eine weltweit führende Institution im Bereich Software- und Systems Engineering. Die systematische Qualitätssicherung und die nachweisbare Qualität standen von Anfang an im Mittelpunkt der Forschung. Aktuell liegen besondere Schwerpunkte auf den Qualitätseigenschaften »Safety« und »Security« sowie auf Forschungsarbeiten zur Gewährleistung dieser Eigenschaften in komplexen autonomen Systemen, im Bereich der Produktion und im Gesundheitssektor. Zusammengefasst steht das IESE heute für Methoden zur effizienten Entwicklung komplexer, gleichzeitig aber verlässlicher software-intensiver Systeme. Angesichts der Entwicklungen im KI-Bereich ist klar, dass KI-Unterstützung im Software Engineering ein zentrales Zukunftsthema ist.
Forscherinnen und Forscher aus mehreren Abteilungen des Fraunhofer IESE arbeiten derzeit gemeinsam an konkreten Anwendungsfällen KI-gestützten Software Engineerings. Diese Abteilungen verfügen über langjährige Erfahrung in der systematischen Modellierung, Messung, Analyse und Vorhersage von Softwarequalitäten. Durch diesen Mix aus Kompetenzen – Software- und Systems Engineering, Safety Engineering, Security Engineering sowie Data Science/KI – ist das IESE in einer einzigartigen Position, um KI-Unterstützung für den Entwurf sicherer und verlässlicher Systeme entscheidend voranzubringen.
Den Rahmen hierfür bilden verschiedene bilaterale Projekte mit Partnern und ein eigenes Forschungsprojekt, in dem wir im Sinne der Vorlaufforschung wesentliche Fragestellungen zum Einsatz von KI im Engineering anhand exemplarischer Anwendungsfälle untersuchen.
Überführung von BaSyx Legacy-Dokumente mithilfe von KI und Template-Engines in automatisiert generierte Teilmodelle.
Effizienzgesteigerte Testautomatisierung durch KI-gestützte Ableitung ausführbarer Testfälle aus Produktanforderungen gemäß ASAM OpenTestSpecification.
Effiziente Sicherheitsanalysen und Exploration verschiedener Szenarien mit generativer KI.
Hinweis: Von besonderer Bedeutung ist die Transparenz der Unsicherheit in den KI-Ausgaben. Unsere Lösung: Uncertainty Wrapper.
Berücksichtigung vorgegebener Qualitätskriterien bei der Bewertung von (Open-Source-)Software für den App-Marktplatz Deutschland.Digital.
Ebenso ist das IESE sehr aktiv in der Normierung zum Thema KI, insbesondere mit Blick auf Safety. Über den DKE-Arbeitskreis 914.0.11 beteiligt es sich beispielsweise an der Entwicklung eines internationalen Standards zu funktionaler Sicherheit und KI (ISO/IEC TR 5469 »Functional safety and AI systems«). Außerdem arbeitet das IESE über den DIN/DKE Gemeinschaftsausschuss zu Künstlicher Intelligenz (NA 043-01-42) an der Ausarbeitung europäischer harmonisierter Normen für das kürzlich verabschiedete europäische KI-Gesetz. So trägt es dazu bei, die gesetzlichen Anforderungen in technische Spezifikationen zu überführen. Hinzu kommt die Unterstützung bei der Entwicklung abgeleiteter Normen für verschiedene Branchen wie Produktion, Automotive und Landwirtschaft. Vor diesem Hintergrund leitete das IESE die sektorübergreifende Safety-Gruppe bei der zweiten KI-Normungsroadmap und war federführend an der Entwicklung der DIN SPEC 92005 zur Unsicherheit im maschinellen Lernen beteiligt.
Wir entwickeln kundenindividuelle Lösungen, arbeiten auf dem aktuellen Stand der Technik, sind unabhängig und neutral.
Profitieren Sie von unserer Erfahrung!