Abstract:
Im automatisierten Fahren arbeiten verschiedene Algorithmen zusammen, die Informationen übergeben, z. B. von der Wahrnehmung an die Planung. Dabei können sich Unsicherheiten fortpflanzen, die die Entscheidung des Planungsalgorithmus stark beeinflussen und möglicherweise zu Kollisionen
führen, falls sie vom Planer nicht angemessen berücksichtigt werden. Aus diesem Grund wird die Qualität eines Planers häufig mit dem Auftreten
von Kollisionen quantifiziert. Nutzer werden jedoch nicht nur ein sicheres, sondern aber auch ein ruhiges Fahrverhalten erwarten. Daher definiert diese Arbeit ein Maß für zulässige Planungsentscheidungen, das Schwankungen zwischen Planungsergebnissen betrachtet. ... mehrDies trägt dazu bei, dass unerwartete Fahrentscheidungen vermieden werden.
In dieser Arbeit wird die Sensitivitätsanalyse nach Morris verwendet, um den Einfluss von Unsicherheiten in der Wahrnehmung auf Planungsentscheidungen zu untersuchen. Morris’ Analyse unterscheidet zwischen Inputs, die für die Planungsentscheidung relevant waren, und Inputs, die die Entscheidung nicht beeinflusst haben. Daraus wird abgeleitet, welcher Input zu unsicher war und welche Konsequenzen gezogen werden müssen: Einerseits sollte die Wahrnehmung speziell für diesen Input genauer arbeiten, andererseits sollte der Planer robuster gegenüber Unsicherheiten dieser Art werden. Aus diesen Ergebnissen kann leider noch nicht gefolgert werden, welche Menge an Wahrnehmungsunsicherheiten akzeptabel wäre. Dafür definiert ein stochastisches Optimierungsproblem die maximalen Unsicherheiten, die gerade noch zu Planungsergebnissen führen, die nicht stärker als ein Grenzwert schwanken. Dieses Vorgehen bietet für verschiedene Verkehrsszenarien die Möglichkeit, die Anforderungen an die Wahrnehmung genau mit den Voraussetzungen der Planung abzustimmen. Zusammengefasst können sowohl die Sensitivitätsanalyse als auch das stochastische Optimierungsproblem den Entwicklungsprozess unterstützen, indem sie z. B. beim Debugging helfen.
Diese neuen Ansätze tragen dazu bei, die Verarbeitung der unsicherheitsbehafteten Informationen nachvollziehbarer zu gestalten und die Entwicklung automatisierter Fahrzeuge zu unterstützen. Im automatisierten Fahren betrifft Nachvollziehbarkeit aber nicht nur den Entwicklungsprozess, sondern auch den Endnutzer der Fahrfunktion. Die aktuelle Forschung erwartet, dass die Skepsis, die in großen Teilen der Bevölkerung gegenüber dem automatisierten Fahren herrscht, u. a. durch das Aufbauen von angemessenem Vertrauen abgebaut werden kann. Eine Möglichkeit, um Vertrauen bei Nutzern aufzubauen, sind Erklärungen, die das Verständnis der Nutzer verbessern. Bevor angemessene Erklärungen vom automatisierten Fahrzeug bereit gestellt werden können, sind zunächst Informationen nötig, die für die Beantwortung möglicher Fragen notwendig sind. Dafür wird zunächst das umfangreiche Wissen von Entwicklern als Ausgangspunkt verwendet. Daher wird zunächst mithilfe von Fokusgruppen untersucht, welche Fragen die Experten zu Fahrentscheidungen stellen, die sie während Testfahrten im Realverkehr als unerwartet wahrnahmen. Die Ergebnisse deuten darauf hin, dass vorrangig unerwartete laterale Bewegungen erklärt werden sollten. Um derartige unerwartete Fahrentscheidungen auch für Nutzer ohne detailliertes Fachwissen zu erklären, wird erneut die Sensitivitätsanalyse verwendet: Mit ihrer Hilfe werden die Informationen, die für zentrale Entscheidungen des automatisierten Fahrzeugs relevant sind, identifiziert. Anschließend werden diese interpretiert und in Zusammenhang mit der Umgebung sowie den geltenden Verkehrsregeln gesetzt. Das Ergebnis sind automatisch generierte, textbasierte Beschreibungen, die das Verhalten des automatisierten Fahrzeugs in leicht verständlicher Sprache wiedergeben und die nicht von menschlichen Fehlinterpretationen beeinflusst sind. Die Ergebnisse einer weiteren Studie zeigen, dass die generierten Sätze zwar derzeit noch als zu lang wahrgenommen werden und daher noch nicht als Nutzeranzeigen im Realverkehr verwendet werden können. Dennoch sind sie ein wichtiger und vielversprechender Schritt, um die technischen Voraussetzungen für zukünftige, informationsreiche und leicht verständliche Nutzeranzeigen zu erfüllen, die die Nachvollziehbarkeit von automatisierten Verhaltensentscheidungen erhöhen.
Abstract (englisch):
In automated driving, different algorithms work together to pass information, e. g., from sensing to planning modules. In this process, uncertainties can propagate, which in turn influence the decision of the planner. If not adequately considered by the planner this may lead to collisions. Therefore, the quality of a planner is often quantified by the occurrence of collisions. However, for users of automated driving functions not only the absence of collisions will be important, but also the driving experience. To account for this problem, this work defines a measure for admissible planning decisions that considers variations between planning results. ... mehrThis contributes to avoiding unexpected driving decisions.
In this work, Morris’ sensitivity analysis is used to examine the effect of uncertainties in sensing modules on planning decisions. It distinguishes between inputs that were relevant for the planning decision and inputs that did not influence the decision. Based on this, all inputs are identified that were too uncertain. Consequently, either the sensing modules need to process the respective input more accurately or the planner needs to become more robust to uncertainties of this kind. However, this finding is not yet sufficient to infer the maximum amount of perceptual uncertainties that will still result in admissible planning decisions. Therefore, a stochastic optimization problem defines the maximum amount of uncertainties permitted that will still lead to planning results that do not vary more than a predefined threshold. This approach offers the possibility that perception requirements can be precisely matched to planning assumptions in any traffic scenario. In summary, both sensitivity analysis and the stochastic optimization problem can help in the development, e. g. by supporting to debugging process.
These new approaches contribute to a more comprehensible processing of uncertain information and to supporting the development of automated vehicles. In automated driving, however, transparency concerns not only the development process but also the user of the automated function. Current research expects that the skepticism that prevails in large parts of the population towards automated driving can, among other factors, be reduced through the establishment of adequate trust in automation. One way to build trust among users is to generate explanations that increase the users’ understanding of the function. However, before adequate explanations can be provided by the automated vehicle, all the information needed to answer any questions must be available. For this, the developers’ considerable knowledge can be used as basis: In a first step, focus groups are used to investigate the questions experts ask when perceiving an unexpected driving decision during test drives in real traffic. The results indicate that priority should be given to explaining unexpected lateral motion. In order to explain such unexpected behavior of automated vehicles to users without detailed knowledge, sensitivity analysis is again used: It identifies the information that is relevant for key decisions of the automated vehicle. This subset of information is then interpreted and put into context with the environment and the applicable traffic rules. The result is an automatically generated, text-based description of the behavior of the automated vehicle in easy-to-understand language. One major advantage is that these descriptions are not affected by potential human misinterpretations. The results of another user study show that even though the sentences are still perceived as too long and therefore cannot be used in real traffic yet, they are nevertheless an important and promising step towards fulfilling the technical requirements for future human-machine interfaces that increase the comprehensibility of automated driving decisions.