Noch vor wenigen Jahren erforderte die Nutzung generativer Künstlicher Intelligenz (GenAI) spezielles Fachwissen, um Inhalte von Grund auf neu zu erstellen. Heute ist die Technologie deutlich zugänglicher: In der Regel genügt ein kurzer Textprompt, um neue Bilder, Videos oder Audios zu generieren. Dass diese Entwicklung nicht nur positive Auswirkungen auf unsere digitale Gesellschaft hat, ist den Gesetzgebern und Plattformanbietern längst bewusst. Eine mögliche Gegenmaßnahme: Spezielle Labels kennzeichnen Bilder als mit KI-generiert.
Forscher*innen der Fakultät für Informatik an der Ruhr-Universität Bochum und des CISPA Helmholtz-Centers für Informationssicherheit, darunter Jonas Ricker, PhD und Mitglied des Horst-Görtz-Instituts für IT-Sicherheit, sowie Sandra Höltervennhoff (ehemals HGI/CASA, heute CISPA), haben sich dieser Idee aus der Userperspektive genähert. In ihrem Paper “That’s another doom I haven’t thought about”: A User Study on AI Labels as a Safeguard Against Image-Based Misinformation, welches im Rahmen der Konferenz ACM CHI 2026 (Barcelona, Spanien) vorgestellt wurde, analysierten sie das Nutzungsverhalten von KI-Labels.
Der Mensch im Mittelpunkt
Während große Hoffnungen damit verbunden sind, dass solche Kennzeichnungen gesellschaftliche Risiken von GenAI – darunter insbesondere die Verbreitung von Falschinformationen – mindern, dienen sie in erster Linie der Transparenz. Sie liefern keine Aussage darüber, ob ein Inhalt der Realität entspricht oder frei erfunden ist, sondern lediglich darüber, ob er mithilfe von KI erstellt wurde. Damit Nutzer*innen angemessen mit solchen Informationen umgehen können, ist entscheidend, dass ihre Erwartungen mit der tatsächlichen Funktionsweise der Kennzeichnung übereinstimmen.
Basierend auf diesen Grundannahmen untersuchten die Forscher*innen die Erwartungen von Nutzer*innen, ihre Wahrnehmung sowie die Auswirkungen fehlerhafter Kennzeichnungen (Mislabeling) auf die User Experience. Dazu führten sie zwei Studien durch.
Wahr oder Falsch? KI-Labels im Praxistest
Während die Studienteilnehmer*innen der ersten Studie KI-Labels zunächst als hilfreich empfanden, änderte sich ihre Wahrnehmung während der praktischen Anwendung. In der zweiten, zentralen Studie mit insgesamt 1.342 Teilnehmer*innen wurden reale und KI-generierte Bilder jeweils mit einer passenden – falschen oder richtigen – Information kombiniert. Die Aufgabe bestand darin, die jeweilige Aussage als wahr oder falsch zu erkennen. Die Beispiele stammen von Faktencheck-Websites.
„Die Labels veranlassten die Teilnehmer*innen nicht dazu, sich stärker auf die Richtigkeit der Behauptungen zu konzentrieren. Sie hatten auch keinen Einfluss auf die Sicherheit, mit der die Proband*innen ihre Urteile fällten,“ erklärt Jonas Ricker. Stattdessen tendierten sie dazu, sich bei ihrer Entscheidung auf die An- oder Abwesenheit des Labels zu verlassen. Das führte zu der unbeabsichtigten Nebenwirkung, dass wahre Informationen mit KI-Bebilderung häufig als falsch eingeschätzt wurden. Gleichzeitig nahm das Vertrauen in Fakten zu, die mit realen, aber aus dem Kontext gerissenen Fotos bebildert wurden.
Risiken durch Mislabeling
Eine weitere Problematik, die untersucht wurde, ist das sogenannte Mislabeling. Egal, ob sich bei der Zuweisung der Labels auf die Nutzer*innen der Plattform verlassen wird, die Information aus den Metadaten herausgelesen wird oder eine Software vor dem Upload alle Bilder prüft: Fehler können in jedem System auftreten und hätten gravierende Folgen auf das Urvertrauen in die Kennzeichnung.
Die Ergebnisse der Studie unterstreichen, dass KI-Labels in der Praxis mit Vorsicht genutzt werden müssen.
Originalpublikation:
Sandra Höltervennhoff, Jonas Ricker, Maike M. Raphael, Charlotte Schwedes, Rebecca Weil, Asja Fischer, Thorsten Holz, Lea Schönherr, and Sascha Fahl. 2026. "That’s another doom I haven’t thought about": A User Study on AI Labels as a Safeguard Against Image-Based Misinformation. In Proceedings of the 2026 CHI Conference on Human Factors in Computing Systems (CHI ’26), April 13–17, 2026, Barcelona, Spain. ACM, New York, NY, USA, 32 pages. https://doi.org/10.1145/3772318.3791006
Die Publikation wurde im Rahmen der CHI’26 mit einem Honorable Mention Award ausgezeichnet.
Pressekontakt:
Jonas Ricker, jonas.ricker(at)rub.de
Infobox: Interdisziplinarität als Prinzip bei CASA
Die Idee für das Paper entstand im Rahmen eines Cross-Disciplinary Projects der CASA International Graduate School.
Interdisziplinäres Arbeiten ist bei CASA ein fundamentales Prinzip, das die Bochumer Forschung besonders auszeichnet. Aus diesem Grund verbringen alle CASA-PhDs mindestens sechs Wochen in der Forschungsgruppe eines anderen CASA Principal Investigators. Während dieser Zeit arbeiten sie an einem interdisziplinären Forschungsprojekt, das ihre Dissertation voranbringt, und nutzen dabei das Fachwissen des jeweiligen Principal Investigators.