Erklärbare Autonome Agenten: Transparent und Vertraubar?

Inhalt

Autonome Systeme werden in mehr und mehr Anwendungsbereichen des täglichen Lebens eingesetzt. Diese autonomen Systeme werden oft auch als „autonome Agenten“ bezeichnet. Beispiele hierfür sind Fahrassistenzsysteme und Smart Home Systeme. Diese autonomen Agenten müssen menschenverständliche Entscheidungen treffen, zusammen mit Menschen agieren oder in Bereichen agieren in denen Menschen anwesend sind. Erklärungen sind notwendig, um diese Zusammenarbeit zu ermöglichen. Um Akzeptanz und Effektivität einer Erklärung zu gewährleisten, müssen Erklärungen an unterschiedliche Zielgruppen, Zeitpunkte und Erklärungsziele angepasst werden.

Um erklärbare autonome Agenten zu entwickeln, gibt es verschiedene Aspekte zu beachten, welche in diesem Proseminar diskutiert werden:

  • Terminologie: Was macht eine Erklärung aus? Wann ist eine Erklärung „gut genug“ für die Benutzer? Wann ist Transparenz ausreichend, und wann ist eine Erklärung notwendig? Sind Erklärungen nur eine Form der Rechtfertigung?

  • Dimensionen von Erklärungen: Wie nehmen die Nutzer Erklärungen wahr und wie bewerten sie sie? Wer kontrolliert Erklärungen und wer profitiert von ihnen? Gibt es auch negative Auswirkungen von Erklärungen?

Ablauf des Proseminars:

In der ersten Vorlesungswoche findet ein Termin statt, bei dem die wählbaren Themen vorgestellt werden. Es werden ausreichend viele Themen gestellt, um eine faire Themenwahl sicherzustellen. Die Vorträge werden in einem Blockserminar am Ende der Vorlesungszeit gehalten und vor dem Blockseminar wird eine etwa 5-Seitige Ausarbeitung abgegeben.

VortragsspracheDeutsch/Englisch
Organisatorisches

In der ersten Vorlesungswoche findet ein Termin statt, bei dem die wählbaren Themen vorgestellt werden. Es werden ausreichend viele Themen gestellt, um eine faire Themenwahl sicherzustellen. Die Vorträge werden in einem Blockserminar am Ende der Vorlesungszeit gehalten und vor dem Blockseminar wird eine etwa 5-Seitige Ausarbeitung abgegeben.