Projekt

SATiSFy

Validierung von SAfeTy- und Security-Anforderungen in autonomen Fahrzeugen

Validierung von SAfeTy- und Security-Anforderungen in autonomen Fahrzeugen

  • Laufzeit:

Ziel dieses Projektes ist es, Techniken zur Erfassung und frühzeitigen Verifikation von Anforderungen für Systeme zur autonomen Fahrzeugführung zu entwickeln, um die notwendigen Security- und Safety-Anforderungen im Ansatz eines heterogen und redundant ausgelegten Mehrkomponentensystems sowohl auf Hardware- und Softwareebene gesamtheitlich spezifizieren und vor dem abschließenden Integrationstest bereits validieren zu können.

Eine zentrale Herausforderung des autonomen Fahrens ist die Gewährleistung der Sicherheit aller Beteiligter. Dies betrifft sowohl den Schutz der Umgebung vor Fehlverhalten des Fahrzeugs (Safety) als auch der Schutz des Fahrzeugs vor unbefugten Manipulationen von außen (Security). Beide Aspekte sind nicht unabhängig voneinander, sondern sind häufig miteinander eng verzahnt: Manipulationen im Fahrzeug können zum Ausfall einzelner Komponenten und damit zum Fehlverhalten des Fahrzeugs führen; umgekehrt können auftretende Fehler in Programmkomponenten dem Angreifer erst die Möglichkeit eröffnen, Manipulationen im Fahrzeug vorzunehmen. Der Standort Bremen (CPS) arbeitet im Rahmen des BMBF-Verbundprojekts SATiSFy an Methoden und Techniken, um bereits im Entwicklungsstadium Safety- und Security-Anforderungen sowohl auf Hardware- als auch auf Softwareebene gesamtheitlich erfassen und formal überprüfen zu können, um vor einer finalen Systemintegration eine verlässliche Sicherheitsaussage für die gesamte Entwicklung treffen zu können. Hierbei wird ein Framework für sicherheitsrelevante IT-Architekturen entwickelt, um diese sowohl frühzeitig beim Entwurfsprozess als auch dynamisch zur Systemlaufzeit überprüfen zu können. Existierende Sicherheitsarchitekturen werden dahingehend modifiziert und integriert, dass sie im Gesamtkontext des Frameworks durch formale Argumente und Komposition eine hinreichende Aussage über die erreichte Sicherheit, Resilienz bzw. das Restrisiko gegenüber absichtlichen Angriffen und unabsichtlichen Einwirkungen treffen können.

Partner

  • Concept Engineering GmbH
  • HOOD GmbH
  • Kasper & Oswald GmbH
  • Robert Bosch GmbH
  • Universität Tübingen
  • Volkswagen AG

Fördergeber

Bundesministerium für Bildung und Forschung

16KIS0821K

Bundesministerium für Bildung und Forschung

Projekt teilen auf:

Ansprechpartner

Keyfacts

Publikationen zum Projekt

Hoang M. Le, Daniel Große, Niklas Bruns, Rolf Drechsler

In: Design, Automation and Test in Europe (DATE). Design, Automation & Test in Europe (DATE-2019) March 25-29 Florence Italy 2019.

Zur Publikation
Vladimir Herdt, Daniel Große, Hoang M. Le, Rolf Drechsler

In: Design, Automation and Test in Europe (DATE). Design, Automation & Test in Europe (DATE-2019) March 25-29 Florence Italy 2019.

Zur Publikation
Mehran Goli, Muhammad Hassan, Daniel Große, Rolf Drechsler

In: Stefan Conrad, Paul Molitor (Hrsg.). IT - information technology (IT) DE GRUYTER OLDENBOURG 2019.

Zur Publikation

Deutsches Forschungszentrum für Künstliche Intelligenz
German Research Center for Artificial Intelligence