Personal details
Title | Erklärbarkeit von lernenden Agenten im Stromnetz mittels symbolischen Strategien |
Description | Ziel dieser Arbeit ist es die Erklärbarkeit von lernenden Agenten im Stromnetz zu erhöhen, indem, anstatt direkt Deep Neural Networks (DNNs) zu optimieren und anzuwenden, symbolische Modelle erlernt werden. Klassischerweise werden DNNs mittels Deep Reinforcement Learning (DRL) optimiert um ein Ziel im Stromnetz, wie die Spannungshaltung, zu erreichen. DNNs sind jedoch vergleichsweise intransparent, was die Erklärbarkeit ihrer erlernten Strategien erschwert. Um eine inhärente Transparenz zu erhalten, können deutlich verständlichere symbolische Modelle, wie mathematische Ausdrücke, verwendet werden. Der Zweck dieser Arbeit besteht also darin symbolische Modelle mittels DRL in Hinblick auf Agentenziele im Stromnetz zu erlernen, um sie anstatt von DNNs verwenden zu können. Die Komplexität kann sowohl auf eine Bachelor- als auch auf eine Masterarbeit abgestimmt werden und kann zu einer Publikation führen. Es ist möglich, die Arbeit in Deutsch oder Englisch zu verfassen (eigene Präferenz). |
Home institution | Department of Computing Science |
Associated institutions |
|
Type of work | practical / application-focused |
Type of thesis | Bachelor's or Master's degree |
Author | Torben Logemann |
Status | assigned |
Problem statement | Für Bachelor- und Masterarbeiten: - Adaptierung bzw. Implementierung eines bestehenden Verfahrens zum Lernen von symoblischen Modellen mittels DRL (Es existiert ein Paper mit dem konzeptionellen Verfahren und eine ausführbare Tensorflow-basierte Implementierung, welche in PyTorch übersetzt werden muss) - Optimierung der symbolischen Modelle durch Testen verschiedener interner DNNs Diese Ziele dienen nur als Referenz und können unter Absprache verändert werden! |
Requirement | Programmierkenntnisse sind zwingend erforderlich. - Python |
Created | 13/04/24 |