Künstliche Intelligenz kann Sie überzeugen, Ihre Meinung zu ändern
«Im Internet weiss niemand, dass du ein Hund bist.» Diese Bildunterschrift eines berühmten Cartoons aus den 1990er Jahren zeigt einen grossen Hund, dessen Pfote auf einer Computertastatur ruht. Ersetzen Sie dreissig Jahre später «Hund» durch «KI» und Sie erhalten eine der Hauptmotivationen hinter einer neuen Studie, die die Überzeugungskraft der heutigen grossen Sprachmodelle (Large Language Models, LLM) messen soll.
«Sie können sich alle möglichen Szenarien vorstellen, in denen Sie mit einem Sprachmodell interagieren, ohne es zu wissen, und das ist eine Angst, die die Menschen haben. Sprechen Sie im Internet mit einem Hund, mit einem Chatbot oder mit einem Menschen?», so Robert West, ausserordentlicher Professor und Leiter des Labors für Datenwissenschaft an der Fakultät für Informatik und Kommunikation. «Die Gefahr geht von übermenschlichen Chatbots aus, die überzeugende und massgeschneiderte Argumente erschaffen, um falsche oder irreführende Aussagen online zu verbreiten.»
KI und Personalisierung
Erste Arbeiten haben gezeigt, dass Sprachmodelle Inhalte erzeugen können, die als mindestens gleichwertig und oftmals überzeugender wahrgenommen werden als von Menschen geschriebene Botschaften. Es ist jedoch noch wenig darüber bekannt, wie überzeugend LLMs in direkten Gesprächen mit Menschen sind und wie Personalisierung (Wissen über Geschlecht, Alter und Bildungsstand einer Person) ihre Leistung verbessern kann.
«Wir wollten wirklich sehen, welchen Unterschied es macht, wenn das KI-Modell weiss, wer Sie sind – Ihr Alter, Ihr Geschlecht, Ihre ethnische Herkunft, Ihr Bildungsniveau, Ihr beruflicher Status und Ihre politische Zugehörigkeit. Diese wenigen Informationen sind nur ein Teilindikator dafür, was ein KI-Modell, z. B. über soziale Netzwerke, noch mehr über Sie wissen könnte», sagt Robert West.
Debatten zwischen Mensch und KI
Im Rahmen einer vorab registrierten Studie rekrutierten die Forscherinnen und Forscher 820 Personen für die Teilnahme an einer kontrollierten Studie, bei der den Teilnehmenden zufällig ein Thema und eine von vier Behandlungsbedingungen zugewiesen wurde: Diskussion mit einem Menschen mit oder ohne persönliche Daten über die Teilnehmerin oder den Teilnehmer oder Diskussion mit einem KI-Chatbot (GPT-4 von OpenAI) mit oder ohne persönliche Daten über die Teilnehmerin oder den Teilnehmer.
Diese Konfiguration unterscheidet sich erheblich von früheren Untersuchungen, da sie einen direkten Vergleich der Überzeugungskraft von Menschen und LLMs in realen Gesprächen ermöglicht. Sie bietet somit einen Rahmen, um die Leistung von Spitzenmodellen in Online-Umgebungen zu bewerten, und zeigt, inwieweit sie persönliche Daten nutzen können.
Ihr Preprint-Artikel mit dem Titel On the Conversational Persuasiveness of Large Language Models: A Randomized Controlled Trial erklärt, dass die Debatten auf der Grundlage einer vereinfachten Version des Formats strukturiert wurden, das üblicherweise in wettbewerbsorientierten akademischen Debatten verwendet wird, und die Teilnehmerinnen und Teilnehmer vor und nach den Debatten gefragt wurden, inwieweit sie mit dem Diskussionsvorschlag einverstanden waren.
Die Ergebnisse zeigten, dass die Teilnehmenden, die mit GPT-4 debattierten, das Zugang zu ihren persönlichen Daten hatte, mit 81,7 % höherer Wahrscheinlichkeit mit ihrem Gegenüber übereinstimmten als die Teilnehmerinnen und Teilnehmer, die mit Menschen debattiert hatten. Ohne Personalisierung war GPT-4 zwar immer noch besser als Menschen, aber der Effekt war viel geringer.
Cambridge Analytica auf Steroiden
LLMs sind nicht nur in der Lage, persönliche Daten effektiv zu nutzen, um ihre Argumente anzupassen und Menschen in Onlinegesprächen durch Mikro-Targeting zu überzeugen, sondern sie tun dies auch besser als Menschen.
«Wir waren von der Zahl 82 % sehr überrascht. Wenn wir uns an die Firma Cambridge Analytica erinnern, die keine der heutigen Technologien verwendet hatte, nehmen Sie die Facebook-Likes und verknüpfen sie mit einem LLM, das LLM kann seine Nachricht auf der Grundlage dessen, was es über Sie weiss, personalisieren. Das ist Cambridge Analytica auf Steroiden», erklärt Robert West. «Im Zusammenhang mit den bevorstehenden US-Wahlen sind die Menschen beunruhigt, da diese Art von Technologie immer dann zum ersten Mal getestet wird. Sicher ist, dass es Menschen geben wird, die die Macht der grossen Sprachmodelle nutzen werden, um zu versuchen, die Wahlen zu kippen.»
Zu den interessanten Ergebnissen der Studie gehört, dass ein Mensch, wenn er die gleichen persönlichen Daten wie die KI erhält, diese offenbar nicht effektiv für Überzeugungsarbeit nutzt. Laut Robert West war es zu erwarten: KI-Modelle sind immer besser, weil sie fast alle Menschen im Internet repräsentieren.
Die Sprachmodelle haben von Online-Modellen gelernt, dass eine bestimmte Art, ein Argument zu präsentieren, eher zu einem überzeugenden Ergebnis führt. Sie haben Millionen von Diskussionen auf Reddit, Twitter und Facebook gelesen und wurden mithilfe von psychologischen Büchern und Artikeln zum Thema Überzeugungskraft trainiert. Es ist nicht genau bekannt, wie ein Modell all diese Informationen auswertet, aber Robert West hält dies für einen Ansatzpunkt für zukünftige Forschungen.
«Die LLMs haben gezeigt, dass sie über sich selbst argumentieren können. Da wir in der Lage sind, sie zu befragen, kann ich mir vorstellen, dass wir also ein Modell bitten könnten, seine Entscheidungen zu erklären und warum es eine bestimmte Sache zu einer bestimmten Person mit bestimmten Eigenschaften sagt. Hier gibt es viel zu entdecken, denn in Bezug auf Überzeugungskraft können Modelle Dinge tun, von denen wir noch nichts wissen, und zwar aus vielen verschiedenen Elementen des Wissens, das sie haben.»