Ein neuer Artikel des Science Policy Forum warnt davor, dass die nächste Generation der Einflussnahme möglicherweise nicht nach offensichtlichen „Copy-Paste-Bots“ aussehen wird, sondern wie koordinierte Gemeinschaften: Geschwader von KI-gesteuerten Persönlichkeiten, die sich in Echtzeit anpassen, Gruppen infiltrieren und in großem Maßstab den Anschein eines öffentlichen Konsens erwecken können. In der aktuellen Ausgabe der Zeitschrift beschreiben die Autor*innen, wie die Verschmelzung von großen Sprachmodellen (Large Language Models, LLMs) mit Multi-Agent-Systemen „bösartige KI-Schwärme“ ermöglichen könnte, die auf authentische Weise soziale Dynamiken imitieren – und den demokratischen Diskurs durch die Fälschung sozialer Beweise und sozialen Konsens bedrohen.
Der Artikel argumentiert, dass das zentrale Risiko nicht nur durch die falschen Inhalte besteht, sondern durch den künstlich erzeugten Konsens: der Illusion des „Alle sagen das“, was Überzeugungen und Normen beeinflussen kann, selbst wenn einzelne Behauptungen umstritten sind. Dieses Risiko verstärkt bestehende Schwachstellen in digitalen Informationsökosystemen , die durch interaktionsorientierte Plattformanreize, fragmentierte Zielgruppen und sinkendes Vertrauen geprägt sind.
Ein bösartiger „KI-Schwarm“ ist ein Netzwerk von KI-gesteuerten Agenten, die über dauerhafte Identitäten und Erinnerungen verfügen. Sie können sich auf gemeinsame Ziele abstimmen und dabei Ton und Inhalt variieren, sich an Engagement und menschliche Reaktionen anpassen, mit minimaler Aufsicht operieren und plattformübergreifend eingesetzt werden. Da diese Systeme unter minimaler Beaufsichtigung agieren und sich über verschiedene Plattformen erstrecken, können sie vielfältige, kontextbezogene Inhalte generieren, die dennoch einer Linie folgen – was sie weitaus schwieriger zu erkennen macht als herkömmliche Bot-Netzwerke.
„Bei unseren Untersuchungen während COVID-19 haben wir beobachtet, dass sich Fehlinformationen genauso schnell über Grenzen hinweg verbreiten wie das Virus selbst. KISchwärme, die in der Lage sind, einen künstlichen Konsens zu erzeugen, könnten diese Bedrohung in einen noch gefährlicheren Bereich treiben“, sagt Prof. Meeyoung Cha,
wissenschaftliche Direktorin am Max-Planck-Institut für Sicherheit und Privatsphäre in Bochum.
Anstatt Beiträge einzeln zu moderieren, plädieren die Autor*innen für Abwehrmaßnahmen, die koordiniertes Verhalten und die Herkunft von Inhalten verfolgen: Erkennung statistisch unwahrscheinlicher Koordinierung (mit transparenten Audits), die Durchführung von Stresstests für Social-Media-Plattformen mittels Simulationen, das Angebot von Verifikationsmöglichkeiten unter Wahrung der Privatsphäre und der Austausch von Beweisen über ein verteiltes Observatorium zur Überwachung des KI-Einflusses. Gleichzeitig sollen Anreize verringert werden, indem die Monetarisierung unechter Interaktionen begrenzt und der Haftungsumfang erhöht wird.
Originale Publikation
Daniel Thilo Schroeder, Meeyoung Cha, Andrea Baronchelli, Nick Bostrom, Nicholas A. Christakis, David Garcia, Amit Goldenberg, Yara Kyrychenko, Kevin Leyton-Brown, Nina Lutz, Gary Marcus, Filippo Menczer, Gordon Pennycook, David G. Rand, Maria Ressa, Frank Schweitzer, Dawn Song, Christopher Summerfield, Audrey Tang, Jay J. Van Bavel, Sander van der Linden, and Jonas R. Kunst
How malicious AI swarms can threaten democracy
Science Magazine
Quelle
Pressekontakt
Bei Fragen zum Artikel oder zu den Aussagen von Prof. Cha wenden Sie sich bitte an Maria-Bianca Leonte: pr[at]mpi-sp.org
Allgemeiner Hinweis: Mit einer möglichen Nennung von geschlechtszuweisenden Attributen implizieren wir alle, die sich diesem Geschlecht zugehörig fühlen, unabhängig vom biologischen Geschlecht.