Hamburg, Februar 2026. Von den Deichtorhallen prangert das Plakat «American Cycles» zur Fotoausstellung des amerikanischen Fotografen Philip Montgomery. Zu sehen sind Wahlkämpfe, soziale Spannungen, religiöse Rituale, Naturkatastrophen und Momente politischer Inszenierung. Montgomerys Bilder sind oft roh, nah dran, mit Blitzlicht und dramatischer Perspektive – die analogen Fotos zeigen ein Land zwischen Macht, Mythos und Verletzlichkeit und spiegeln es in seiner Gegenwart und digitalen Revolution, die immer schneller die Welt erfasst.
Wissen ist verhandelbar. Das macht die freie Welt aus. Doch Wissen ist auch zerstörbar und manipulierbar. Social Media haben sich immer mehr zur Dreckschleuder von Manipulanten, Populisten, Rattenfängern und so fort entwickelt. Wenn Mark Zuckerberg in diesen Tagen in einem präjudizierenden Verfahren vor Gericht steht, dann sitzt dort stellvertretend ein Angeklagter für all jene, die in den letzten Jahren die Zerstörung von Wissen und Gesellschaftsfrieden nicht nur nicht verhindert, sondern aktiv befördert haben. Diesmal geht es um Sucht, doch effektiv geht es um viel mehr. Von Frauenfeindlichkeit, Rassismus und Antisemitismus gar nicht zu sprechen. Aktuelle Studien kommen zu klaren, differenzierten Befunden: Soziale Medien sind keine automatische «Radikalisierungsmaschine», wirken jedoch als Verstärker, und für Kinder deutlich problematischer als für Erwachsene. Denn bei Kindern stossen sie nicht auf Reflexe und Einordnungen, da die Kinder der Gegenwart weitgehend von diesen Maschinen sozialisiert und trainiert wurden. Systematische Reviews und Meta-Analysen zeigen, dass wiederholte Exposition gegenüber Desinformation, Verschwörungsnarrativen und Hate Speech Einstellungen messbar verschieben kann, vor allem dort, wo algorithmische Logiken emotionalisierende Inhalte belohnen (Enders-Studie der University of Chicago; Stecula & Pickup-Studie der Simon Fraser University oder Madriaza-Studie der University of Manchester). Bei Minderjährigen fällt dieser Effekt stärker ins Gewicht: Kognitive Reife, Quellenkritik und historische Einordnung befinden sich noch im Aufbau, antisemitische oder rassistische Memes erscheinen als «Meinung», «Humor» oder Trend, nicht als Ideologie. Die Effekte sind meist moderat, aber kumulativ – und gerade deshalb gesellschaftlich relevant. Für Erwachsene dispositionell, für Kinder entwicklungsbedingt vulnerabler lässt sich die Studienlage verdichten. Die Dekonstruktion von Wissen mag für die einen aus nostalgischen Gründen problematisch sein. Doch in Wirklichkeit ist sie die Gegenrevolution zur Erfindung des Buchdrucks, in der sich nicht Wissen, sondern die teils totalitäre Ideologie dagegen zeigt. Dass in Europa ein Social-Media-Verbot für Kinder debattiert wird, zeigt zumindest, dass Evidenz vorhanden ist, vielleicht sogar mit der falschen Verbotslösung auf Ebene der Politik. Die Techniken stehen am Anfang einer Entwicklung, die längst einen weltweiten rechtlosen Raum geschaffen hat, in dem geistiges Eigentum, das bessere Argument oder Anstand nicht mehr gelten, Recht nicht mehr eingefordert werden kann. Wie weit Naivität gehen kann, zeigen aktuell auch jüdische Organisationen, wie etwa die Claims Conference mit der Förderung von «Holocaust Education» auf Tiktok. Kinder werden direkt in die Algorithmen der Leugner, Relativierer und Antisemiten manövriert, ohne dass sie Einfluss nehmen können. Eine Studie des UCL Centre for Holocaust Education zeigte kürzlich, dass fast 60 % der befragten Schülerinnen und Schüler ungeprüfte Holocaust-Inhalte auf sozialen Medien gesehen haben, wobei Tiktok mit Abstand am häufigsten genannt wurde — unabhängig davon, ob sie aktiv danach gesucht hatten oder nicht. Viele dieser Schüler äusserten falsche Vorstellungen über Ursachen und Verantwortlichkeiten in Bezug auf den Holocaust, was ein Hinweis darauf ist, dass algorithmisch empfohlene Inhalte zu verzerrter historischer Wahrnehmung beitragen können. Die digitale Parallelwelt überholt die reale, indem sie diese infiltriert und dekonstruiert. Können Medien, Wissenschaft, Judikative, menschliche Vernunft dagegenhalten? Zuckerberg und Co. haben Maschinen geschaffen, die Antisemitismus tagtäglich verschärfen, wie sich aktuell beim KI-Chatbot Grok, der Teil von Musks AI-Firma xAI und auf X eingebunden ist, zeigt. Da werden antisemitische Aussagen verbreitet, Hitler gelobt oder extreme Verschwörungs- und Hassinhalte reproduziert. Längst muss die Schuld- die Unschuldsvermutung ablösen, bis der bessere Gegenbeweis vorgebracht wird.
Yves Kugelmann ist Chefredaktor der JM Jüdischen Medien AG.
das jüdische logbuch
20. Feb 2026
Die Schuldvermutung als Primat
Yves Kugelmann