Was haben Barack Obama, Taylor Swift und der Papst gemeinsam? Von ihnen, wie von vielen anderen Personen des öffentlichen Lebens, existieren künstlich erzeugte Medien. Das sind beispielsweise Bilder oder Audiodateien, die durch Künstliche Intelligenz geschaffen wurden – und die von vielen Menschen trotzdem als real rezipiert werden, wie nun eine repräsentative, internationale Studie von Wissenschaftler*innen der Ruhr-Universität Bochum, des CISPA Helmholtz Center, der Leibniz-Universität Hannover sowie der TU Berlin zeigt. Die Ergebnisse stellen die Forscher*innen Joel Frank, Franziska Herbert, Jonas Ricker, Lea Schönherr, Thorsten Eisenhofer, Asja Fischer, Markus Dürmuth und Thorsten Holz auf dem 45. IEEE Symposium on Security and Privacy in San Francisco vor, das vom 20. – 23. Mai 2024 in San Francisco, Kalifornien, stattfand.
KI-generierte Medien: Herausforderung für die menschliche Wahrnehmung
„Bisher konnten wir immer nur spekulieren, wenn es um die menschliche Wahrnehmung von KI-generierten Medien geht“, erklärt CASA-PhD Jonas Ricker. Aus diesem Grund hat das Forscher*innen-Team eine repräsentative Online-Befragung zu KI-generierten Medien wie Bildern, Text- und Audio-Dateien mit über 3.000 Teilnehmer*innen aus Deutschland, den USA und China durchgeführt. Das Ergebnis: Die Studienteilnehmer*innen klassifizierten KI-generierte Medien über alle Medienarten und Länder hinweg mehrheitlich als menschengemacht. „Wir haben herausgefunden, dass nur wenige Faktoren darüber entscheiden, ob Menschen gut darin sind, KI-generierte Medien zu erkennen. Diese Unterschiede sind selbst über verschiedene Altersgruppen und Hintergründe wie Bildung, politische Ausrichtung oder Medienkompetenz nicht sehr signifikant“, erklärt Jonas Ricker.
Missbrauch durch KI-generierte Medien als Gefahr für die Demokratie
Das kann für eine Gesellschaft, in der Künstliche Intelligenz nicht mehr wegzudenken ist, zur Gefahr werden, erklärt Thorsten Holz vom CISPA. „Künstlich erzeugter Content kann vielfältig missbraucht werden. Wir haben in diesem Jahr wichtige Wahlen, wie die Wahlen zum EU-Parlament oder die Präsidentschaftswahl in den USA: Da können KI-generierte Medien sehr einfach für politische Meinungsmache genutzt werden. Ich sehe darin eine große Gefahr für unsere Demokratie“. Vor diesem Hintergrund ist es nicht nur wichtig, dass eine automatisierte Detektion dieser Medien im Zentrum der Forschung steht – auch die Medienkompetenz der Menschen in diesem Bereich müsse sich weiterentwickeln, so die Wissenschaftler*innen.
Möglichkeiten der KI-Generierung von Medien in der Studie
Die quantitative Studie wurde als Online-Befragung zwischen Juni 2022 und September 2022 in China, Deutschland und den USA durchgeführt. Per Zufallsprinzip wurden die Befragten einer der drei Mediengruppen „Text“, „Bild“ oder „Audio“ zugeordnet und sahen 50% reale und 50% KI-generierte Medien. Darüber hinaus wurden sozio-biografische Daten, das Wissen zu KI-generierten Medien sowie Faktoren wie Medienkompetenz, holistisches Denken, generelles Vertrauen, kognitive Reflexion und politische Orientierung erhoben. Nach der Datenbereinigung blieben 2.609 Datensätze übrig (822 USA, 875 Deutschland, 922 China), die in die Auswertung einflossen.
Für die Studie haben die Forscher*innen umfassend menschlich und maschinell erzeugte Medien in den Bereichen Audio, Bilder und Texte gesammelt. Sprachbeispiele wurden mit einer Text-zu-Sprache-Pipeline, basierend auf Tacotron 2 und Hifi-GAN, generiert. Mithilfe von Forschungsergebnissen zu mit StyleGAN2 erstellten synthetischen Gesichter erstellten die Forscher 16 Paare aus echten und maschinell erzeugten Bildern ausgewählt. Künstlich generierte Artikel wurden mit dem Davinci GPT-3 Modell von OpenAI generiert, und echte Artikel stammten von National Public Radio (USA), Tagesschau (Deutschland) und China Central Television (China).
Ausgangspunkte für weitere Forschung
Das Ergebnis der Studie liefert wichtige Take-Aways für die Cybersicherheitsforschung: „Kriminelle könnten beispielsweise KI-generierte Medien für perfektionierte Social Engineering Angriffe nutzen. Wir brauchen neue Abwehrmechanismen in diesem Bereich“, so Jonas Ricker. Dafür planen die Forscher*innen Labor-Studien, bei denen Teilnehmer*innen genauer zu ihren Unterscheidungsmechanismen befragt werden sollen. Ein weiterer Schritt wäre außerdem die Weiterentwicklung der technischen Maßnahmen im Bereich automatisiertes Fact-Checking, erklären die Wissenschaftler*innen in ihrer Arbeit.
Chair for Machine Learning
Faculty of Computer Science
Ruhr University Bochum
Universitätsstr. 150
44801 Bochum, Germany
0234 / 3223486
jonas.ricker(at)rub.de
Allgemeiner Hinweis: Mit einer möglichen Nennung von geschlechtszuweisenden Attributen implizieren wir alle, die sich diesem Geschlecht zugehörig fühlen, unabhängig vom biologischen Geschlecht