Forschung

Die Forschungsgruppe Modellierung und Analyse im Mobility Software Engineering beschäftigt sich mit angewandten und theoretischen Methoden im Bereich des Autonomen Fahrens. Die zentrale Forschungsfrage ist: Welche Anforderungen sollte ein autonomes Fahrzeug erfüllen, bevor es sich die Straßen dieser Welt mit uns Menschen teilen darf und wie können diese Anforderungen sichergestellt werden? Um diese Forschungsfrage zu beantworten, werden drei Grundpfeiler in der Forschung verfolgt. Im ersten Forschungspfeiler geht es um die formale Spezifikation von Fahrmanövern, mit welcher die Manöver maschinenverstehbar und analysierbar werden. Hierbei gilt es, zwei wesentliche Aspekte der Manöver abzubilden: Räumliche und zeitliche Aspekte. Räumliche Aspekte enthalten zum Beispiel, dass sich ein Fahrzeug vor einem anderen befindet, oder dass eine Kreuzung voraus ist. Zeitliche Aspekte enthalten beispielsweise, dass Aktionen nacheinander passieren (z. B. blinken vor dem Spurwechsel), oder eine gewisse Zeit dauern. In diesem Ansatz werden unter anderem eine räumliche Verkehrslogik und Analyseverfahren für Realzeitautomaten genutzt, um die Sicherheit, Zuverlässigkeit und weitere wünschenswerte Eigenschaften von Fahrmanövern nachzuweisen.

Im nächsten Forschungspfeiler wird die Frage aufgeworfen: Wie müssen Verkehrsregeln für autonome Fahrzeuge aussehen? Es wird schnell klar, dass Regelwerke für Menschen, wie beispielsweise die deutsche Straßenverkehrsordnung StVO, nicht „1 zu 1“ übernommen werden können: Natürliche Sprache ist ungenau und viele Regeln setzen einen gesunden Menschenverstand voraus, welcher nicht unmittelbar auf autonome Systeme übertragen werden kann. In diesem Schwerpunkt wird an einem Digital Highway Code für autonome Fahrzeuge gearbeitet, welcher angepasste Verkehrsregeln enthält. Für einen solchen Code müssen neben der maschinenlesbaren Formulierung auch die Priorisierung von Verkehrsregeln im Ausnahmefall, sowie rechtliche und ethische Fragen, betrachtet werden. Der letzte Forschungspfeiler zielt auf die Erklärbarkeit und Verstehbarkeit komplexer Systeme ab. In Zeiten steigender Komplexität autonomer Systeme wird die Selbst-Erklärbarkeit getroffener Entscheidungen dieser Maschinen umso wichtiger, um das Nutzer-Vertrauen in die Systeme zu stärken, aber auch um Entscheidungen nachvollziehen und überprüfen zu können. Hierzu werden Verfahren entwickelt, mit denen Erklärungen automatisiert aus technischen System-Modellen extrahiert werden können. In der Lehre werden diese Thematiken durch eine geplante Vorlesung zum Thema „Timed Systems“ aufgegriffen, sowie in geplanten Praktika, Seminaren und Themen für Abschlussarbeiten thematisiert.