Personal details
Title | Meinungsbildung in LLM-Multiagentennetzwerken – Sentimentanalyse und soziale Einflussmodelle im Kontext der Energiewende |
Description | Die Energiewende und der Klimawandel stellen komplexe gesellschaftliche Herausforderungen dar, deren Bewältigung maßgeblich von der Anpassung des Verbrauchsverhaltens in Energiesystemen und der Implementierung nachhaltiger Energiekonzepte abhängt. Verhaltensänderungen erfolgen jedoch nicht isoliert, sondern sind durch kognitive Prozesse sowie die Interaktion in sozialen Netzwerken und systemische Einflussfaktoren geprägt. Einstellungen, soziale Normen und das Verhalten einzelner Akteure spielen eine entscheidende Rolle bei der Meinungsbildung, Entscheidungsprozessen und Anpassung individueller Konsummuster. Die Untersuchung der Dynamik dieser Meinungsbildungs- und Entscheidungsprozesse findet bislang weitgehend empirisch statt und gestaltet sich sehr aufwändig. Ansätze für computergestützte Methoden zur Analyse und Modellierung menschlichen Verhaltens und sozialer Systeme („Computational Social Sciences“) erscheinen daher besonders attraktiv. Während multiagentenbasierte Simulationen oder psychologische Entscheidungsmodelle bekannt sind, ist der Einsatz moderner KI-Systeme noch weitgehend unerforscht. Letzterer scheint jedoch aufgrund des technologischen Fortschritts der letzten Jahre sowie aufgrund jüngerer Beobachtungen und Forschungsergebnissen zur dynamischen Anpassung des Alignments von Large Language Modellen (LLM) während der Interaktion mit Nutzenden sehr reizvoll. Bereits im Jahr 2017 und damit technologisch nur sehr eingeschränkt auf moderne LLM übertragbar, machte Microsofts Chatbot Tay international Schlagzeilen, weil er sich im öffentlichen Training radikalisierte und vom Netz genommen werden musste. Jüngere Untersuchungen zum Argumentationsverhalten moderner KI-gestützter Sprachmodelle mit "Chain-of-Thought-Prozessen" weisen ebenfalls interessante Phänomene auf, die auch bei menschlichen Denk- und Entscheidungsmechanismen bekannt sind. In Experimenten zur Echokammerbildung ("Echo Chambers") in simulierten sozialen Netzwerken zeigen LLM-Agenten eine Tendenz zur Meinungsradikalisierung oder Polarisierung. Ein weiteres Phänomen ist, dass diese Modelle in der Lage sind, kontextabhängig Strategien zu entwickeln, die den angestrebten Zielen dienlich sind – selbst wenn dies eine bewusste Verzerrung von Informationen umfasst ("In-Context Scheming"). Oder etwa, dass Modelle bewusst vorgeben, bestimmte Ansichten zu verändern, um vorgegebene Ziele zu erreichen, dabei aber an ihren gegenteiligen Trainingszielen festhalten ("Alignment Faking"). Ähnlich überraschend ist, dass jüngst beobachtet wurde, dass ein enges Finetuning auf spezifischen Aufgaben paradoxerweise dazu führen kann, dass ein Modell in anderen, nicht verwandten Kontexten schädliche oder fehlangepasste Verhaltensweisen zeigt („Emergent Misalignment“). Auch wenn die Übertragbarkeit dieser Beispiele auf menschliche Verhaltensweisen nicht direkt oder nur sehr eingeschränkt möglich ist, ergeben sich hieraus dennoch faszinierende Perspektiven zur gezielten Provokation und Reproduktion bekannten sozialen Verhaltens. Bei Erfolg ließe sich in nachgelagerten Experimenten untersuchen, wie bekannte oder neue Mechanismen die Dynamiken der Meinungsbildung beeinflussen. Methodischer AnsatzModerne Multiagentensysteme, die auf leistungsstarken Large Language Models (LLMs) basieren, bieten einen innovativen Ansatz zur Simulation und Analyse dieser komplexen Prozesse und Dynamiken. In einem solchen System agieren spezialisierte KI-Agenten in einem kontinuierlichen, interaktiven Dialog, wobei sie unterschiedliche Perspektiven und fachliche Expertisen repräsentieren. Durch den wechselseitigen Austausch und die iterative Verarbeitung von Informationen können sie kollektive Entscheidungsprozesse modellieren, die der realen Meinungsbildung ("Opinion Dynamics") in sozialen Netzwerken und politischen Diskursen ähneln. Dies ist insbesondere für die Analyse von Einflussmechanismen und emotionalen Stimmungsdynamiken im Kontext der Energiewende relevant, da hier divergierende Standpunkte, sozioökonomische Faktoren und individuelle Präferenzen eine entscheidende Rolle spielen. |
Home institution | Department of Computing Science |
Associated institutions |
|
Type of work | practical / application-focused |
Type of thesis | Master's degree |
Author | Prof. Dr. Sebastian Lehnhoff |
Status | available |
Problem statement | In dieser Masterarbeit sollen LLM-Agenten in spezifischen Rollen miteinander interagieren und sich zu Aspekten der Verhaltensanpassung in Energiesystemen austauschen. Dabei werden folgende analytische Schwerpunkte berücksichtigt:
Die experimentelle Variation der Netzwerkparameter erfolgt unter Berücksichtigung etablierter sozialer Einflussmodelle (s. Literaturliste). Diese Modelle unterscheiden sich hinsichtlich ihrer Mechanismen zur Meinungsbildung und Interaktion. Einige Modelle basieren auf iterativen Mittelwertbildungen zur schrittweisen Annäherung an Gruppenkonsens, während andere externe Einflussgrößen als dynamische Anpassungsfaktoren integrieren. Zudem gibt es Modelle, die individuelle Überzeugungen als teilweise stabil betrachten, sodass soziale Interaktion diese nur begrenzt verändert. Das Ziel dieser Arbeit ist es, diese Modelle in LLM-Multiagentennetzwerken nachzubilden und systematisch zu erfassen, inwiefern soziale Rollen, ideologische Orientierung und demografische Faktoren das Kommunikationsverhalten sowie die daraus resultierenden Stimmungsdynamiken innerhalb des LLM-Multiagentennetzwerks beeinflussen. Die Masterarbeit adressiert folgende zentrale Fragestellungen:
Zur Beantwortung dieser Fragen könnte die methodische Umsetzung folgende Schritte umfassen:
Weiterführende Literatur und Ressourcen:Dynamic Personas mit LLM
Radikalisierung von Chatbots
Misalignment bei LLMs
LLM-Multiagentensysteme:
Automatisierte Sentimentanalyse:
Soziale Einflussmodelle in Opinion Dynamics:
|
Requirement | Technische Kompetenzen:
Analytische und wissenschaftliche Fähigkeiten:
|
Created | 14/02/25 |