Software Engineering für erklärbare Systeme
In diesem Kurs beschäftigen wir uns damit warum komplexe Softwaresysteme (und insbesondere autonome Systeme und Roboter) erklärbar sein sollten und warum sie passende Erklärungen selbständig liefern sollten. Wir schauen uns an, wie man Anforderunegn an die Erklärbarkeit erhebt, welche Stakeholderinteressen berücksichtigt werden müssen, wie man Systeme dazu befähigt zur Laufzeit passende Erklärungen zu liefern und wie man die Erklärungen evaluieren kann. Wir beschäftigen uns mit verschiedenen Systemarten und fragen uns auch, welche Wirkung Erklärungen haben könnnen und wo wir vorsichtig sein müssen.
In der zugehörigen Übung vertiefen wir das Wissen an praktischen Anwendungsbeispielen und diskutieren verschiedene Lösungsmöglichkeiten.