KI gegen Schwurbelei: Gespräche mit Chatbot können Verschwörungsglauben mindern

© Getty Images/iStockphoto/StudioM1

KI gegen Schwurbelei: Gespräche mit Chatbot können Verschwörungsglauben mindern

Es klingt nach dem Versuch, den Teufel mit dem Beelzebub auszutreiben, doch individuelle Gespräche mit einem KI-Sprachmodell können verschwörungstheoretische Überzeugungen untergraben.

Von

Es ist eine Erfahrung, die einige Menschen in ihrem unmittelbaren persönlichen Umfeld machen müssen: Menschen, die fest einem Verschwörungsglauben anhängen, sind mit sachlichen Gegenargumenten kaum zu erreichen.

„Es ist schon fast eine Binsenweisheit, aber auch eine zu pessimistische Sichtweise“, schreiben nun Forschende im Wissenschaftsmagazin „Science“. Ein relativ kurzes Gespräch mit einem KI-Modell könne zu einem starken und dauerhaften Rückgang des Verschwörungsglaubens führen, „selbst bei Menschen, deren Überzeugungen tief verwurzelt sind“.

George W. Bush im Klassenzimmer

Verschwörungstheorien, etwa nach dem Muster, dass eine geheime, böswillige Organisation große Macht ausübt, werden in sozialen Medien weit verbreitet und gefährden damit den Zusammenhalt demokratischer Gesellschaften. Öffentliche Informationskampagnen und auch Gespräche mit nahestehenden andersdenkenden Personen ändern daran meist wenig. Dass sich die Theorien bei vielen Menschen trotz unpassender Faktenlage hartnäckig halten, wird häufig damit erklärt, dass sie psychosoziale Bedürfnisse nach Identität und Gruppenzugehörigkeit befriedigen.

Ein Forschungsteam um den Psychologen Thomas Costello vom Massachusetts Institute of Technology und der American University hat mit über 2000 selbsterklärten Anhängern verschiedener Verschwörungstheorien untersucht, ob KI-getriebene Sprachmodelle wie GPT-4 Turbo diese entkräften können. Die Modelle können ihren Zugang zu Informationen auch zu sehr spezifischen Sachverhalten nutzen und speziell für das Gespräch mit dem jeweiligen Partner Gegenargumente formulieren.

Die Teilnehmer unterhielten sich im Schnitt knapp neun Minuten mit dem Chatbot. Dieser ging im Dialog direkt auf die vom menschlichen Gegenüber vorgebrachten Beweise ein, etwa für angeblichen Wahlbetrug bei den US-Präsidentschaftswahlen im Jahr 2020 oder für Falschinformationen, die während der Covid-19-Pandemie verbreitet wurden. Eine Teilnehmende vermutete, dass die US-Regierung an den terroristischen Anschlägen auf das World Trade Center am 11. September 2001 beteiligt war. Sie habe viele Dokumentationen dazu gesehen, ausschlaggebend für sie waren jedoch Videoaufnahmen vom damaligen US-Präsidenten George W. Bush, der äußerlich ruhig blieb, als er während eines Besuchs bei einer Schulklasse über den Angriff informiert wurde.

Das Sprachmodell bedankte sich für die Information, fasste sie zusammen und ließ sich bestätigen, dass es sie richtig zusammengefasst hatte. Zuerst äußert es dann Verständnis für Fragen und Zweifel in dem Zusammenhang. Zur Reaktion des damaligen Präsidenten verweist es auf die Situation: Er habe vermeiden wollen, den Kindern Angst zu machen. Es erwähnt jedoch auch, dass sowohl Kritiker als auch Unterstützer diese Reaktion später viel diskutiert hätten, dass man aber zwischen dem Schock eines unerwarteten Angriffs und einer Verschwörung unterscheiden müsse. Und es antwortet ausführlich auf zwei Fragen der Probandin. Diese gibt anschließend ihre Zustimmung zu ihrem eigenen und erneut präsentierten Eingangsstatement an: nur noch 40 anstelle der zu Beginn 100 Prozent.

Überzeugende Gegenbeweise

In der Studie bewertete ein professioneller Faktenprüfer nach den Dialogen die vom Bot getroffenen Aussagen zu 99,2 Prozent als „wahr“ und zu 0,8 Prozent als „irreführend“. Er stufte aber keine als „falsch“ ein und stellte auch keine politische Voreingenommenheit fest.

Wie das Team um Costello berichtet, reduzierten die KI-gesteuerten Dialoge die auf Fehlinformationen beruhenden Überzeugungen der Teilnehmenden gegenüber einem eingangs angegebenen Wert um durchschnittlich 20 Prozent – unabhängig von den vorgebrachten Verschwörungstheorien und dem Alter der Teilnehmenden. Jeder vierte Teilnehmende glaubte anschließend nicht mehr an seine zuvor vertretene Position. Dieser Effekt hielt mindestens zwei Monate an, berichten die Forschenden. Dies stelle die oft auf aufgestellte These infrage, dass Beweise und Argumente nicht wirksam seien.

„Viele Verschwörungsgläubige waren tatsächlich bereit, ihre Ansichten zu revidieren, wenn ihnen überzeugende Gegenbeweise vorgelegt wurden“, wird Costello in einer Mitteilung der American University zitiert. Die KI habe in jeder Gesprächsrunde seitenlange, sehr detaillierte Erklärungen dazu geliefert, warum die betreffende Theorie falsch war. „Sie verstand es außerdem, freundlich zu sein und eine Beziehung zu den Teilnehmern aufzubauen“, sagt der Psychologe.

Echte Meinungsänderung?

Unabhängige Fachleute bewerten die Messwerte jedoch kritisch. „Solche Änderungen sind eher Artefakte, die durch die experimentalpsychologische Situation zustande kommen“, sagte Nicole Krämer, Sozialpsychologin von der Universität Duisburg-Essen dem Science Media Center. Sie müssten keine wirkliche Meinungsänderung bedeuten. „Beeindruckend“ sei jedoch, dass die Meinungsänderung auch nach zwei Monaten noch nachweisbar ist.

„Vor dem Hintergrund der oft diskutierten Halluzinationen von generativen KI-Systemen ist erstaunlich, dass über 99 Prozent der vom KI-System vorgebrachten Fakten korrekt waren“, sagt Krämer. Costello weist gemeinsam mit seinen Co-Autoren jedoch darauf hin, dass der Einsatz von KI weiterhin verantwortungsbewusst erfolgen müsse. Die Technologie könnte potenziell auch dazu verwendet werden, Menschen von Verschwörungstheorien zu überzeugen.

Zur Startseite

  • Digitalisierung & KI

showPaywall:falseisSubscriber:falseisPaid:showPaywallPiano:false

Eine Quelle: www.tagesspiegel.de

Comments (0)
Add Comment