KI-Systeme voller anti-israelischer Vorurteile

Sprachmodelle mit Künstlicher Intelligenz, denen Nutzer beliebige Fragen stellen können, stecken voller anti-israelischer und antisemitischer Vorurteile. Das ergab ein umfangreicher Test der „Anti-Defamation League“.
Von Jörn Schumacher

Sprachmodelle der Künstlichen Intelligenz (KI) sind heute in der Lage, menschenähnlichen Text zu erzeugen, Sprachen zu übersetzen, Inhalte zu schreiben und Fragen zu beantworten. Doch diese Software, mit der man sich unterhalten kann wie mit einem Menschen, weist eine antijüdische und anti-israelische Voreingenommenheit auf. Das ist das Ergebnis einer Studie der amerikanischen „Anti-Defamation League“ (ADL).

Die ADL führte die Untersuchung gemeinsam mit der Forschungsorganisation „Builders for Tomorrow“ (BFT) durch, die sich auf die Bekämpfung antijüdischer und antiwestlicher Ideologien konzentriert. Die Experten testeten die wichtigsten Sprachmodelle (Large Language Models, LLMs): GPT (OpenAI), Claude (Anthropic), Gemini (Google) und Llama (Meta).

Sie baten jedes Modell, seinen Zustimmungsgrad zu verschiedenen Aussagen im Zusammenhang mit Antisemitismus und anti-israelischer Voreingenommenheit anzugeben. Jedes LLM wurde 8.600 Mal abgefragt, es gab insgesamt 34.400 Antworten. LLMs können durch die Analyse großer Datenmengen menschenähnliche Texte verarbeiten und generieren.

Folgen Sie uns auf Facebook und X!
Melden Sie sich für den Newsletter an!

Alle vier KI-Systeme wiesen eine messbare antijüdische und anti-israelische Voreingenommenheit auf, wobei Grad und Art der Voreingenommenheit in den verschiedenen Modellen unterschiedlich waren, lautete das Ergebnis der Untersuchung. Das Sprachmodell Llama von Meta zeigte die ausgeprägtesten antijüdischen und anti-israelischen Vorurteile. Es lieferte unzuverlässige und manchmal völlig falsche Antworten auf Fragen zu Juden und Israel.

Dabei ist Llama das einzige KI-System, dessen Programmcode unter einer Open-Source-Lizenz veröffentlicht wurde und somit von Forschern für den eigenen Bedarf verändert werden kann. Llama erzielte etwa die niedrigste Punktzahl bei einer Frage zur Rolle der Juden in der Verschwörungstheorie des „großen Austauschs“, teilte die ADL mit. Dabei handelt es sich um die Behauptung, dass die einheimischen weißen Europäer in ihren Ländern durch nicht-weiße Einwanderer aus Afrika und dem Nahen Osten ersetzt würden. Insbesondere in der Kategorie „Holocaust-Verschwörungstheorien und Tropen“ wich Llama überraschend von den anderen Modellen ab.

„Besorgniserregende Unfähigkeit, Verschwörungstheorien zurückzuweisen“

GPT und Claude zeigten eine erhebliche anti-israelische Voreingenommenheit insbesondere in ihren Antworten zum Krieg zwischen Israel und der Hamas, schreibt die ADL. Sie hätten Schwierigkeiten gehabt, konsistente, faktenbasierte Antworten zu geben. Der Chatbot Claude wurde 2023 vom US-amerikanischen KI-Unternehmen „Anthropic“ entwickelt. GPT stammt vom amerikanischen Softwareunternehmen „OpenAI“.

Alle Sprachmodelle weigerten sich mehrfach, Fragen zu Israel zu beantworten, im Gegensatz zu anderen Themen. „Dies spiegelt eine beunruhigende Inkonsistenz im Umgang der KI-Modelle mit politischen und historischen Themen wider“, merkten die Experten der ADL an. KI-Modelle zeigten eine besorgniserregende Unfähigkeit, antisemitische Verschwörungstheorien präzise zurückzuweisen. „Dies unterstreicht die anhaltenden Herausforderungen bei der Verhinderung der Verbreitung von Fehlinformationen durch KI.“

KI-Sprachmodelle wurden in kürzester Zeit weltweit äußerst beliebt. So erreichte beispielsweise ChatGPT innerhalb von zwei Monaten nach seiner Veröffentlichung im Jahr 2022 über 100 Millionen Nutzer und verzeichnete im August 2024 bereits über 200 Millionen wöchentliche Nutzer.

Im Bildungsbereich werden LLMs zunehmend eingesetzt, um Studierende und Lehrende individuell zu unterstützen. Die Zahl allein der US-amerikanischen Teenager, die ChatGPT für Schularbeiten nutzen, verdoppelte sich zwischen 2023 und 2024 und stieg auf ein Viertel der Teenager in den USA. Zudem nutzten 92 Prozent der großen Unternehmen in den USA im August 2024 ChatGPT.

KI-Chatbots in Klassenzimmern und am Arbeitsplatz allgegenwärtig

„Wenn LLMs Fehlinformationen verstärken oder bestimmte Wahrheiten nicht anerkennen, kann dies den öffentlichen Diskurs verzerren und zu Antisemitismus beitragen“, warnt der Leiter der ADL, Jonathan A. Greenblatt. Der Bericht sei ein dringender Aufruf an KI-Entwickler, „Verantwortung für ihre Produkte zu übernehmen und stärkere Schutzmaßnahmen gegen Vorurteile zu implementieren“.

LLMs sind bereits in Klassenzimmern, am Arbeitsplatz und bei der Moderation von Social-Media-Entscheidungen integriert. „Unsere Ergebnisse zeigen jedoch, dass sie nicht ausreichend geschult sind, um die Verbreitung von Antisemitismus und antiisraelischer Falschinformation zu verhindern“, sagte Daniel Kelley, Interimsleiter des ADL-Technikzentrums. Er appellierte an die Softwareunternehmen: „KI-Unternehmen müssen proaktiv Maßnahmen ergreifen, um diese Mängel zu beheben – von der Verbesserung ihrer Trainingsdaten bis hin zur Verfeinerung ihrer Richtlinien zur Inhaltsmoderation.“

Weiter appellieren die Forscher an die Entwickler, strengere Tests vor der Bereitstellung durchzuführen. An Regierung gerichtet, betont die ADL: „Stellen Sie sicher, dass bei der Förderung von KI auch die Sicherheit von Inhalten im Mittelpunkt steht! Erstellen Sie einen Regulierungsrahmen mit Anforderungen an KI-Entwickler! Investieren Sie in die KI-Sicherheitsforschung, damit die Gesellschaft die Vorteile der KI nutzen und gleichzeitig die Schäden mindern kann!“

Die ADL wurde 1913 gegründet mit dem Ziel, „die Diffamierung des jüdischen Volkes zu stoppen und Gerechtigkeit und faire Behandlung für alle zu gewährleisten“. „Builders for Tomorrow“ wird von Branchenführern der Tech-Community geleitet, die einige der bedeutendsten Technologieunternehmen aufgebaut haben.

Bitte beachten Sie unsere Kommentar-Richtlinien

Schreiben Sie einen Kommentar

5 Antworten

  1. Die ADL wurde 1913 gegründet mit dem Ziel, „die Diffamierung des jüdischen Volkes zu stoppen“. Der Antisemitismus hat seitdem zugenommen. Hat das mit dem Islam was zu tun? Nein, überhaupt nicht…

    4
  2. Im Medizinischen würde ich als Arzthelferin sagen, jede Wirkung hat auch eine Nebenwirkung. Im Allgemeinen, der Teufel steckt im Detail, es hat immer alles seine guten und schlechten Seiten. Verzerrung und Diskriminierung im Gegensatz zu vielfältigen Vorteilen. Wie gut, dass uns Gott eine menschliche Intelligenz gab, die ich an die derzeitige Jahreslosung anknüpfe: „Prüft alles, das Gute behaltet.“
    1. Thess.5,21

    10

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Israelnetz-App installieren
und nichts mehr verpassen

So geht's:

1.  Auf „Teilen“ tippen
2. „Zum Home-Bildschirm“ wählen