Selbstfahrenden Autos gehört die Zukunft, soviel scheint festzustehen. Aber wie verhindert man Unfälle?
Sicherheit bedeutet im Allgemeinen nicht, dass kein Schaden entstehen kann, sondern, dass das Risiko akzeptabel ist. Bei selbstfahrenden Autos stellt sich deshalb die Frage, welches Restrisiko akzeptiert werden kann und wie man sicherstellt, dass sie zumindest deutlich weniger Unfälle als die von Menschen gesteuerten Fahrzeuge verursachen. Einen hundertprozentigen Schutz vor Unfällen wird es auch hier nicht geben. Welche Rolle kann künstliche Intelligenz dabei spielen?
Sicherheitsrelevante Entscheidungen in Autos werden zunehmend von Software getroffen: Das kann man klassisch programmieren. Im Programm wird festgelegt, welche der möglichen Reaktionen in welcher der zu erwartenden Situationen am besten geeignet ist, und es wird überprüft, dass die Software das erwünschte Verhalten auch tatsächlich leistet. Der Nachteil dieser Vorgehensweise ist offensichtlich: Das funktioniert nur gut, wenn Situationen vorab bekannt sind, so dass die Reaktionen darauf in der Software vorab festgelegt werden können. Was aber ist zu tun, wenn die Situationen zu kompliziert und zahlreich sind, um alles vorab festzulegen, so wie es im realen Straßenverkehr zu erwarten ist?
Bei der Auswertung von Bildern einer Kamera im Fahrzeug kann man natürlich nicht jede mögliche Pixelbelegung durchgehen und festlegen, ob auf dem Bild ein bestimmtes Objekt ist oder nicht. Dies gilt auch für mögliche Fahrsituationen und die Entscheidung darüber, wie gelenkt und beschleunigt werden soll. Für derartige Fälle können Verfahren der künstlichen Intelligenz (KI) ein probates Mittel sein. Hier existieren sehr leistungsfähige Verfahren, die oft erstaunlich gute Ergebnisse liefern. Allerdings ist nicht sichergestellt, dass ein KI-Verfahren verlässlich stets gute Ergebnisse liefert. Das ist aber eigentlich eine Forderung, die man an ein autonomes Fahrzeug stellen wird. Wenn man nicht genau weiß, wie sich die Software verhalten wird, wie kann man da nachweislich Sicherheit erreichen?
Das ist in der Tat noch ein aktuelles Forschungsthema. Aber es ist durchaus interessant, einmal einen Vergleich zwischen der Leistungsfähigkeit aktueller Lösungen für das autonome Fahren, den „offiziellen“ Anforderungen und der tatsächlichen Leistungsfähigkeit menschlicher Fahrer anzustellen.
Ab wann wird das Risiko akzeptabel?
Zum Festlegen der Risikoakzeptanzgrenze gibt es verschiedene Prinzipien. In Sicherheitsstandards, wie der ISO 26262 für (nicht automatisierte) Straßenfahrzeuge, finden sich hohe Sicherheitsanforderungen: Bei einer Durchschnittsgeschwindigkeit von 50 km/h käme man nach diesen Regeln im Schnitt 5 Milliarden Kilometer weit, bis der erste tödliche Unfall passieren würde. Alle Fahrzeuge der Firma Tesla sind nach Firmenangaben zusammen aber nur 210 Millionen Kilometer automatisiert gefahren (1), bis der erste tödliche Unfall passierte und nicht 5 Milliarden. Wenn diese 210 Millionen Kilometer auch der allgemeine Schnitt wären – was statistisch betrachtet eigentlich nicht haltbar ist – und wenn die Tesla-Fahrzeuge durchschnittlich 50 km/h oder schneller fahren würden, dann hätte Tesla diese Risikoakzeptanzgrenze um mehr als das 20-fache verfehlt.
Allerdings lag der Kilometerschnitt im Jahr 2015 für einen tödlichen Unfall beim manuellen Fahren in den USA nach Angaben des U.S. Department of Transportation bei 140 Millionen Kilometern (2) und in Deutschland nach Angaben des ADAC bei 219 Millionen Kilometern (3). Es stellt sich also die Frage, ob die automatisierten Systeme wirklich den Extremwert erreichen müssen oder ob sie nicht einfach „nur“ besser sein müssen als der beste Mensch oder deutlich besser als der durchschnittliche Mensch. Für das automatisierte Fahren würde das bedeuten, dass man nicht nur auf eine bestimmte Unfallrate hinarbeitet und aufhört, sobald diese erreicht ist, sondern dass man versucht, die Unfallrate so weit zu minimieren, wie es sinnvoll und praktisch machbar ist.
Wenn KI-Lösungen einmal doch versagen
Eine Strategie kann darin bestehen, die künstlich intelligenten Systeme mit konventioneller Software zu überwachen. Das mag auf den ersten Blick seltsam erscheinen, ergibt aber bei genauer Betrachtung Sinn. Oft ist es viel einfacher zu überprüfen, ob eine Reaktion sicher ist, als die Reaktion selbst zu bestimmen. Das ist ein wenig wie mit Hochseilartisten und ihrem Sicherungsnetz. Die Artisten können sehr komplexe Abläufe präzise wiederholen. Sollte das einmal misslingen, so wird die unsichere Situation – der Sturz – durch das Sicherungsnetz sanft abgebremst. Das Verhindern des Absturzes durch das Netz ist eine viel einfachere Funktion, als einen präzisen doppelten Salto zu schlagen. Man könnte sagen: Die Artisten kümmern sich um die Funktion – gute Artistik –; das Netz garantiert im Falle des Falles Sicherheit.
Übertragen auf das selbstfahrende Auto bedeutet das, dass eine KI-Lösung mit all ihren Stärken und Schwächen dazu genutzt werden könnte, mit komplizierten Sachverhalten umzugehen. Und sollte diese KI-Lösung einmal versagen, so könnte eine konventionelle Software verhindern, dass daraus eine unsichere Situation entsteht. Diese Software bildet quasi ein Sicherungsnetz. Weil es sich dabei um „normale“ Software handelt, kann deren Funktion genau nachvollzogen werden, so dass ein Versagen der KI-Lösung ohne ernste Folgen bleibt.
Künstliche Intelligenz kann also selbstfahrende Autos weitgehend sicher machen, wenn sie mit klassischen Algorithmen verbunden bleibt. So behält der Ingenieur auch in Zukunft die Kontrolle, nicht allein der Computer.
Quellen:
- https://www.tesla.com/blog/tragic-loss
- National Center for Statistics and Analysis. (2017, October).
2016 Fatal Motor Vehicle Crashes: Overview
Traffic Safety Facts Research Note. Report No. DOT HS 812456). Washington, DC: National Highway Traffic Safety Administration.
https://crashstats.nhtsa.dot.gov/Api/Public/ViewPublication/812456 - ADAC e. V. Ressort Verkehr (2016, September)
Zahlen, Fakten, Wissen. Aktuelles aus dem Verkehr
https://www.adac.de/_mmm/pdf/statistik_zahlen_fakten_wissen_1016_208844.pdf