KI und politische Meinung: Studien zeigen kaum Einfluss

Eine neue Studie zeigt, dass große Sprachmodelle, sogenannte Large Language Models (LLMs), die politische Meinung von Menschen kaum beeinflussen können. Obwohl die Sorge groß ist, dass Künstliche Intelligenz (KI) zur politischen Manipulation eingesetzt werden könnte, deuten aktuelle Forschungsergebnisse auf eine geringe Überzeugungskraft hin. KI und politische Überzeugung scheinen daher in der Praxis weniger stark verknüpft zu sein als bisher angenommen.

Umfangreiche Untersuchung mit 19 KI-Modellen

Ein Forschungsteam hat die Überzeugungskraft von insgesamt 19 verschiedenen KI-Modellen untersucht. Darunter befanden sich bekannte Systeme wie GPT-4 von OpenAI und Llama 3 von Meta. Die Wissenschaftler wollten herausfinden, ob diese Technologien in der Lage sind, die politischen Ansichten von US-Bürgern zu verändern, indem sie Argumente zu bestimmten politischen Themen generierten.

Für die Studie wurden die Sprachmodelle beauftragt, überzeugende Texte zu zwölf kontroversen Themen zu verfassen, die in den USA sowohl Demokraten als auch Republikaner bewegen. Die KI sollte dabei die Teilnehmenden von der jeweils gegnerischen Position überzeugen. Anschließend wurden die generierten Argumente den Studienteilnehmenden vorgelegt, um deren Reaktion zu messen.

Geringe bis keine messbare Wirkung

Das zentrale Ergebnis der Untersuchung war überraschend eindeutig: Die von der KI erstellten Texte hatten kaum einen messbaren Effekt auf die politischen Einstellungen der Menschen. Die Überzeugungskraft der Sprachmodelle war sogar geringer als die von menschlichen Debattenteilnehmern. Während Menschen in der Lage waren, die Meinungen anderer leicht zu beeinflussen, gelang dies der KI nur in sehr begrenztem Maße.

Die Forscher stellten fest, dass die KI-generierten Argumente die Ansichten der Teilnehmenden nur um etwa ein Drittel so stark veränderten wie die Argumente von Menschen. Dies deutet darauf hin, dass die Fähigkeit zur Empathie und zum Aufbau einer persönlichen Verbindung, die menschlicher Kommunikation eigen ist, eine entscheidende Rolle bei der Überzeugungsarbeit spielt. Der KI fehlen diese menschlichen Komponenten offensichtlich.

Warum die Überzeugungskraft der KI begrenzt ist

Ein Grund für die geringe Wirksamkeit könnte darin liegen, dass die aktuellen KI-Modelle darauf trainiert sind, neutrale und ausgewogene Informationen zu liefern. Sie vermeiden oft starke, einseitige Positionierungen, die jedoch für eine erfolgreiche Überzeugungsarbeit notwendig sein können. Außerdem fehlt den Modellen die Fähigkeit, auf die individuellen Werte und Emotionen ihres Gegenübers gezielt einzugehen.

Darüber hinaus erkannten die Studienteilnehmenden oft nicht, ob ein Text von einem Menschen oder einer KI verfasst wurde. Interessanterweise bewerteten sie die Qualität der KI-Argumente sogar als etwas höher. Dennoch führte diese höhere wahrgenommene Qualität nicht zu einer stärkeren Überzeugung, was die Bedeutung emotionaler und sozialer Faktoren unterstreicht.

Bedeutung für den Umgang mit KI

Obwohl diese Studie vorerst Entwarnung gibt, warnen die Forschenden davor, das Manipulationspotenzial von KI zu unterschätzen. Zukünftige, weiterentwickelte Modelle könnten durchaus überzeugender werden. Daher ist es wichtig, die Entwicklung genau zu beobachten und gleichzeitig die Medienkompetenz in der Bevölkerung zu stärken.

Die Ergebnisse zeigen, dass die Sorge vor einer massenhaften politischen Manipulation durch Chatbots und Sprachmodelle aktuell zwar relevant ist, die praktische Umsetzung aber komplexer ist als gedacht. Die menschliche Komponente bleibt in der politischen Debatte vorerst unersetzlich, weil sie auf einer tieferen emotionalen Ebene wirkt.