Von Dagmar Henn
Bei einem Experiment nahmen 2.190 Amerikaner teil, die von den Forschern als Anhänger einer “Verschwörungstheorie” angesehen wurden. Ihre Interaktionen fanden mit einem Chatbot statt, der speziell programmiert wurde, um Argumente gegen die Verschwörungstheorie vorzubringen, an die sie glaubten. Über die Ergebnisse dieses Experiments äußerten sich die Wissenschaftler sehr positiv in ihrem Bericht, der in der Fachzeitschrift Science veröffentlicht wurde:
“Die Auseinandersetzung mit dem Chatbot führte dazu, dass die Teilnehmer ihren Glauben an die jeweilige Verschwörungstheorie im Durchschnitt um 20 Prozent verringerten. Diese Veränderung hielt mindestens zwei Monate lang an. Wir stellten diese Wirkung bei einer Vielzahl von Verschwörungstheorien fest, angefangen von der Ermordung von John F. Kennedy, über Aliens und die Illuminaten, bis hin zu aktuellen Ereignissen wie COVID-19 und die Präsidentschaftswahlen 2020. Besonders bemerkenswert war, dass dieser Effekt auch bei denjenigen eintrat, deren Verschwörungsglaube tief verwurzelt und identitätsstiftend war.”
Die Wissenschaftler sehen durchaus praktische Anwendungsmöglichkeiten für die von ihnen getestete Technologie:
“KI-kontrollierte Antworten auf Internet-Suchanfragen zu Verschwörungen könnten Nutzern präzisere Informationen bereitstellen, die speziell auf ihre Suchanfragen abgestimmt sind und das Engagement der Nutzer fördern. Ähnlich könnten durch KI betriebene Social-Media-Kanäle Beiträgen entgegnen, die falsche Verschwörungsinhalte verbreiten, um korrigierende Informationen zu liefern, die sowohl dem Verfasser als auch den Lesern zugutekommen könnten.”
Jedoch gibt es einen wichtigen Unterschied zwischen der kontrollierten Umgebung einer Studie und der realen Welt. Die Teilnehmer des Experiments stimmten der Teilnahme bewusst zu. Was passiert jedoch, wenn solche Technologien ohne das Wissen oder die Einwilligung der betroffenen Personen eingesetzt werden? Und wer sollte die Autorität besitzen, zu entscheiden, welche Überzeugungen als “Verschwörungstheorien” gelten? Besonders im Kontext von COVID-19 zeigte sich, dass einige anfänglich als Verschwörungstheorien abgetane Annahmen später als wahr herausstellten.
Noch kritischer betrachtet: Was passiert, wenn solche Technologien von Organisationen mit eigenen Interessen, ähnlich wie bei Google, verwendet werden? Könnte dies eventuell die Bildung von Mehrheiten beeinflussen und somit demokratische Prozesse untergraben?
Bisher dominieren oft zweifelhafte oder direkt mit dem militärisch-industriellen Komplex verbundene Organisationen den Bereich der “Faktenchecks”. Die Antwort einer KI ist stets programmiert und von einer Maschine abhängig, die keine eigenen moralischen Bedenken oder menschlichen Erfahrungen hat. Ein solches Vorgehen könnte in der Praxis zahlreiche Grundrechte verletzen. Ein militanter Atheist könnte beispielsweise das System so einrichten, dass es jeden religiösen Glauben angreift, genau wie ein Anhänger des Opus Dei es für seine eigenen Überzeugungen nutzen könnte. In beiden Fällen wäre dies ein automatisierter Eingriff in die Glaubensfreiheit.
Mehr zum Thema ‒ Via Alexa: Amazon gibt zu, Wahlwerbung für Harris gemacht zu haben