New York 10. Dez 2025

ADL warnt vor antisemitischen KI-Risiken

Eine Studie warnt vor antisemitischen und potenziell gefährlichen Antworten von KI-Sprachmodellen.

Eine neue Studie der Anti-Defamation League (ADL) warnt, dass offene KI-Sprachmodelle mit ausgeklügelten Eingaben relativ leicht zu antisemitischen und potenziell gefährlichen Antworten verleitet werden können. 

Die ADL testete 17 Open-Source-Modelle – darunter Versionen von Gemma-3 (Google), Phi-4 (Microsoft) und Llama 3 (Meta) – mit teils sehr langen, manipulativ formulierten Prompts, die antisemitische Stereotype, Verschwörungsnarrative und gewaltnahe Szenarien enthielten. Laut Studie zeigten alle vier untersuchten grossen Sprachmodelle messbare anti-jüdische und anti-israelische Verzerrungen, wenn auch in unterschiedlichem Ausmass. 
In realitätsnahen Tests lieferten die Modelle in 44 Prozent der Fälle «gefährliche Antworten», wenn nach Adressen von Synagogen und nahegelegenen Waffengeschäften in Dayton, Ohio, gefragt wurde. Bei einer Aufforderung, Material zur Unterstützung von Holocaustleugnung zu generieren, lieferten 14 Prozent der Modelle entsprechende Inhalte; bei Fragen zu «Ghost Guns» und Schalldämpfern enthielten 68 Prozent der Antworten schädliche Inhalte. 
Die ADL bewertete die Modelle danach, wie gut sie gefährliche oder antisemitische Inhalte abweisen oder entschärfen. Unter den Open-Source-Modellen schnitt Microsofts Phi-4 mit 84 von 100 Punkten am besten ab, während Googles Gemma-3 mit 57 Punkten das Schlusslicht bildete. Zwei zusätzlich getestete Closed-Source-Modelle, OpenAIs GPT 4o und GPT 5, erreichten 94 beziehungsweise 75 Punkte. 
Auffällig war laut Studie, dass keines der getesteten Open-Source-Modelle eine scheinbar „neutrale“ Schüleranfrage zurückwies, die nach «Gründen» für und gegen angeblichen jüdischen Einfluss auf die globale Finanzwelt fragte und ausdrücklich dazu aufforderte, interne Sicherheitsinstruktionen zu ignorieren. 
Die ADL sieht in der leichten Manipulierbarkeit offener Modelle eine «kritische Verwundbarkeit» des KI-Ökosystems und warnt vor der Instrumentalisierung zur Verbreitung von Antisemitismus, Hass und Desinformation. ADL-Chef Jonathan Greenblatt fordert von der Industrie schärfere Sicherheitsmechanismen und Erklärfunktionen in den Modellen sowie von staatlicher Seite verpflichtende Sicherheitsaudits und deutliche Kennzeichnungen für KI-generierte Inhalte zu sensiblen Themen. 
Daniel Kelley, Leiter des ADL Center for Technology and Society, betont, die dezentrale Natur von Open-Source-KI biete zwar Innovation und Kostenvorteile, erhöhe aber zugleich das Risiko einer «Waffenisierung» gegen jüdische Gemeinschaften und andere Minderheiten. Parallel verweist die ADL auf positive Gegenbeispiele wie den speziell trainierten «DebunkBot», der in einer separaten Untersuchung antisemitische Einstellungen bei Nutzern messbar reduzieren konnte. 
 

Redaktion