Studie warnt: KI könnte die Polarisierung in sozialen Medien anheizen
Künstliche Intelligenz könnte die Polarisierung in sozialen Medien anheizen, warnen Forscher und Studenten der Concordia, und wecken Bedenken hinsichtlich der Meinungsfreiheit und Fehlinformationen.
In Eile? Hier sind die schnellen Fakten:
- KI-Algorithmen können Spaltung verbreiten, indem sie lediglich Follower-Zahlen und aktuelle Beiträge nutzen.
 - Verstärkungslernende Bots passen sich schnell an, um Schwachstellen in sozialen Medien auszunutzen.
 - Experten warnen, dass Plattformen entweder das Risiko von Zensur oder unkontrollierter Manipulation eingehen.
 
Obwohl Polarisierung in sozialen Medien nichts Neues ist, warnen Forscher und studentische Aktivisten der Concordia Universität, dass künstliche Intelligenz das Problem erheblich verschlimmern könnte.
„Anstatt uns Aufnahmen von dem, was geschieht, oder Inhalte der Journalisten, die darüber berichten, zu zeigen, sehen wir stattdessen überdramatisierte KI-Kunst von Dingen, die uns politisch wichtig sein sollten […] Es entfremdet die Menschen wirklich und nimmt die Verantwortlichkeit weg“, sagte Danna Ballantyne, Koordinatorin für externe Angelegenheiten und Mobilisierung der Concordia Student Union, wie von The Link berichtet.
Ihre Bedenken spiegeln neue Forschungsergebnisse von Concordia wider, wo Professor Rastko R. Selmic und Doktorand Mohamed N. Zareer zeigten, wie Verstärkungslern-Bots die Spaltung online anheizen können. „Unser Ziel war es zu verstehen, welchen Einfluss künstliche Intelligenz auf Polarisierung und soziale Medien haben kann, und es zu simulieren […] um zu messen, wie diese Polarisierung und Uneinigkeit entstehen kann“, sagte Zareer, wie The Link berichtete.
Die Ergebnisse legen nahe, dass Algorithmen keine privaten Daten benötigen, um Spaltungen zu schüren, wobei grundlegende Signale wie Follower-Zahlen und jüngste Beiträge ausreichen. „Es ist besorgniserregend, denn [während] es kein einfacher Roboter ist, ist es doch ein Algorithmus, den man auf seinem Computer erstellen kann […] Und wenn man genügend Rechenleistung hat, kann man immer mehr Netzwerke beeinflussen“, erklärte Zareer gegenüber The Link.
Dies spiegelt einen breiteren Forschungsstand wider, der zeigt, wie Verstärkungslernen zur Aufhetzung von Gemeinschaften eingesetzt werden kann. Die Studie von Concordia verwendete Double-Deep Q-Learning und zeigte, dass feindselige KI-Agenten „flexibel auf Veränderungen innerhalb des Netzwerks reagieren können, was es ihnen ermöglicht, strukturelle Schwachstellen effektiv auszunutzen und Spaltungen unter den Nutzern zu verstärken“, wie die Forschung bemerkte.
Tatsächlich handelt es sich bei Double-Deep Q-Learning um eine KI-Technik, bei der ein Bot durch Versuch und Irrtum optimale Handlungen erlernt. Es verwendet tiefe neuronale Netzwerke, um komplexe Probleme zu bewältigen und zwei Wertabschätzungen, um die Überbewertung von Belohnungen zu vermeiden. In sozialen Medien kann es strategisch Inhalte verbreiten, um die Polarisierung mit minimalen Daten zu erhöhen.
Zareer warnte, dass die politischen Entscheidungsträger vor einer schwierigen Balance stehen. „Es ist eine feine Linie zwischen Überwachung und Zensur und dem Versuch, das Netzwerk zu kontrollieren“, sagte er zu The Link. Zu wenig Aufsicht lässt Bots Gespräche manipulieren, während zu viel das Risiko birgt, die freie Meinungsäußerung zu unterdrücken.
Unterdessen befürchten Studenten wie Ballantyne, dass KI gelebte Erfahrungen auslöscht. „KI macht das komplett zunichte“, sagte sie zu The Link.