Stabil gegen Desinformation und Hate Speech: Wege zu einer resilienten digitalen Demokratie
Wie können wir digitale Räume verantwortungsvoller und sicherer gestalten? Welche Rolle spielen Zivilgesellschaft, Forschung und Politik für eine widerstandsfähige vernetzte Gesellschaft? Benjamin Fischer, Experte für digitale Demokratie, spricht über aktuelle geopolitische Herausforderungen, wirkungsvolle Lösungsansätze und notwendige europäische Maßnahmen zur Begegnung von Desinformation und Hass im Netz.

Benjamin Fischer engagiert sich für digitale Resilienz und Minderheitenrechte. Er berät gemeinnützige Organisationen im Fundraising und Change Management. Als Programmdirektor der Alfred Landecker Foundation war er am Aufbau von Initiativen wie CeMAS, HateAid und Decoding Antisemitism beteiligt. (Foto: Alfred Landecker Foundation)
Benny, wie bist du zum Thema digitale Demokratie gekommen?
Mein Berufseinstieg war 2015 als Präsident der European Union of Jewish Students (EUJS) in Brüssel. In dieser Zeit nahm die Regulierung digitaler Plattformen in Europa Fahrt auf – von der Datenschutz-Grundverordnung (DSGVO) bis zum Verhaltenskodex gegen Hassrede der Europäischen Kommission. Damals fiel mir auf, dass politische Maßnahmen oft auf subjektiven Eindrücken beruhten, statt auf belastbaren Daten. Doch ohne Daten bleibt Regulierung vage.
Gleichzeitig gab es – und ich würde behaupten, gibt es bis heute noch – in der Zivilgesellschaft zwei Lager: Auf der einen Seite stehen Organisationen, die sich auf eine „Netzkultur“ berufen und ein freies, unreguliertes Internet verteidigen, auf der anderen Seite Menschenrechtsorganisationen, die sich für Minderheitenschutz und zunehmend auch für digitale Sicherheit einsetzen. Diese Spannung hat mich dazu gebracht, mich auf die Schnittstelle von Technologie und Bürgerrechten zu spezialisieren.
Später habe ich für verschiedene NGOs gearbeitet und eine Abteilung für digitale Transformation in einem Wohlfahrtsverband aufgebaut. Dabei wurde mir klar: Digitale Transformation ist mehr als die Digitalisierung analoger Prozesse. Sie muss langfristige Stabilität schaffen und sicherstellen, dass niemand abgehängt wird. 2020 wechselte ich zur Alfred Landecker Foundation, um Projekte wie Decoding Antisemitism und CeMAS mit aufzubauen. Heute arbeite ich freiberuflich mit Fokus auf Digitale Resilienz und Change Management.
Was bedeutet digitale Resilienz?
Mit Digitaler Resilienz meine ich den Grad, zu welchem eine Gesellschaft durch Technologie hervorgerufene Herausforderungen souverän bewältigen kann – von Hassnachrichten über Verschwörungsideologien bis hin zu gezielten Desinformationskampagnen. Sie umfasst verschiedene Aspekte: den bewussten Umgang mit digitalen Technologien, Schutz vor Cyberangriffen, kritische Medienkompetenz sowie insgesamt die Fähigkeit, sich an technologische Veränderungen anzupassen. Ein weiterer wichtiger Punkt ist die digitale Selbstbestimmung, also die Kontrolle über die eigenen Daten und Identitäten im Netz.
Das Konzept der Digitalen Resilienz haben Raphael von Aulock und ich 2022 bei Landecker als Handlungsstrategie entwickelt, um die vielen unterschiedlichen Förderprojekte strategisch fassen und evaluieren zu können. Dabei haben wir uns einen in der Zukunft liegenden Idealzustand vorgestellt und versucht, rückblickend zu überlegen, welche Initiativen jetzt angestoßen werden müssen, um diesen Punkt zu erreichen. Besonders wichtig war uns deshalb, proaktive Handlungsstrategien zu identifizieren und zu fördern.
„Wenn wir bis 2050 eine digital resiliente Gesellschaft sein wollen, müssen wir heute die richtigen Weichen stellen.“
Benjamin Fischer
Welche Herausforderungen siehst du auf diesem Weg?
Oft greifen zivilgesellschaftliche Forderungen zu kurz oder sind unrealistisch. Die Idee eines „Internets frei von Hass“ klingt zwar wünschenswert, doch das Netz ist ein Diskursraum – und Irritationen gehören dazu. Die entscheidende Frage ist nicht, wie wir sie ganz loswerden, sondern wie wir sie handhaben. Gleichzeitig stellt sich die Frage, wie wir digitale Räume so gestalten, dass sie nicht nur wirtschaftlich effizient, sondern auch gesellschaftlich gerecht sind.
Ein weiteres großes Thema sind ausländische Einflussnahmen. Demokratien werden gezielt mit Influence Operations unterwandert, um politische Prozesse zu manipulieren. Zudem gibt es ein strukturelles Problem in der Arbeit gegen Desinformation und Hass im Netz: Viele NGOs betreiben Monitoring, sammeln wertvolle Daten und veröffentlichen Berichte. Doch die Herausforderung besteht heute darin, diese Erkenntnisse auch nutzbar zu machen und stabile Strukturen für digitale Resilienz aufzubauen.
Es gibt einige Organisationen, die hier sehr gute Arbeit leisten, wie zum Beispiel CeMAS, das Forschungszentrum für Informatik (FZI) und als internationaler Player das Institute for Strategic Dialogue (ISD). Sie beraten inzwischen Regierungen auf Basis dieser Daten. Aber die größere Frage ist noch ungelöst: Wer trägt diese Arbeit langfristig? Und wie schaffen wir eine tragfähige Infrastruktur, die diesen Bereich nachhaltig unterstützt?
Wie ist die Lage in Deutschland und Europa?
Die Situation in Deutschland wird von der geopolitischen Situation maßgeblich beeinflusst. Plattformen haben in den letzten Jahren massiv in “Trust & Safety”, also Vertrauen und Sicherheit investiert, doch mit dem Erstarken autoritärer Kräfte und wirtschaftlichem Druck nehmen sie diese Investitionen wieder zurück.
Europa hat zwar regulatorische Fortschritte gemacht – etwa mit dem Digital Services Act (DSA) und dem Digital Markets Act (DMA) – doch diese Regelungen kamen spät. Trump hat bereits angedroht, Strafzölle gegen die EU zu verhängen, wenn diese Maßnahmen voll in Kraft treten. Das zeigt, wie fragil diese Fortschritte sind.
Gleichzeitig müssen wir uns fragen, ob es so etwas wie technologische Souveränität in Europa oder Deutschland gibt. Die ernüchternde Antwort: Nein. Statt neue Best Practices zu etablieren, stehen wir aktuell eher vor einem Rückschritt. Europa kommentiert digitale Entwicklungen oft nur – statt sie aktiv zu gestalten.
Was muss jetzt geschehen?
Ein Fortschritt der letzten Jahre ist, dass netzpolitische Debatten zunehmend evidenzbasiert, d.h. auf Basis von verlässlichen Daten, nachweisbaren Fakten und wissenschaftlichen Erkenntnissen geführt werden. Das liegt daran, dass Monitoring-Strukturen geschaffen wurden, die verlässliche Datengrundlagen liefern. Diese Strukturen müssen gesichert und ausgebaut werden. Der Zugang zu Daten für die Forschung sollte erleichtert werden.
Ein weiterer wichtiger Ansatz ist das praxisnahe Verständnis digitaler Plattformen. Initiativen, die Mechanismen sozialer Netzwerke nachbauen, um sie besser zu analysieren, sind vielversprechend und sollten ausgebaut werden. Gleichzeitig braucht es ein realpolitisches Verständnis in der Forschung: Geschäftsinteressen müssen in politische Modelle einbezogen werden, auch wenn dies dem aktivistischen Selbstverständnis vieler zivilgesellschaftlicher Akteure widerspricht.
„In der Zivilgesellschaft und der Forschung gibt es oft eine Spaltung zwischen netzpolitischen Akteuren, die ein freies Internet fordern, und solchen, die für ein hassfreies Internet eintreten. Beide Positionen sind berechtigt, doch sie müssen für politische Forderungen zusammengeführt werden – insbesondere, weil die Entscheidungen letztlich von Akteuren mit Geschäftsinteressen getroffen werden. Wer eine Alternative zum bestehenden System will, muss nicht nur Konzepte entwerfen, sondern auch funktionierende Lösungen entwickeln.” Benjamin Fischer
Viele NGOs haben in den letzten Jahren großartige Arbeit geleistet. Der Markt ist voll mit Expert*innen, die fundiertes Wissen haben – doch oft fehlt es an Strukturen, um dieses Wissen in politische Prozesse einzubringen.
Deshalb muss sich die Zivilgesellschaft unabhängiger von staatlicher Unterstützung machen. Ein vielversprechender staatlicher Ansatz ist der Sovereign Tech-Gedanke: Damit werden in Europa gezielt Open-Source-Technologien gefördert, um ein nachhaltiges digitales Ökosystem aufzubauen. Stiftungen sollten dies im Blick behalten.
Welche Rolle spielen andere Akteure neben der Zivilgesellschaft?
Hier haben vor allem zwei Akteure eine zentrale Rolle: Erstens die großen Plattformen selbst, die verstehen müssen, dass Sicherheit auf ihren Plattformen kein politisches Thema ist, sondern ein essenzieller Bestandteil ihres eigenen Geschäftsmodells.
Zweitens sind es philanthropische Organisationen bzw. die Unternehmen dahinter. In den letzten zehn Jahren war es opportun, sich mit Themen wie Hass im Netz und der Diskriminierung von Minderheiten auseinanderzusetzen. In den kommenden Jahren wird es das nicht mehr sein – aber gerade deshalb umso notwendiger. Jetzt zeigt sich, wer diese Themen wirklich ernst nimmt und wer bisher nur symbolische Bekenntnisse abgegeben hat.
Welche Strategien gegen Desinformation funktionieren?
Viele Ansätze sind reaktiv: Eine Falschinformation verbreitet sich, und erst danach wird versucht, sie zu korrigieren. Das Problem dabei ist, dass Desinformation oft schneller wirkt als ihre Richtigstellung. Deshalb braucht es ergänzend präventive Strategien, insbesondere durch Bildungsarbeit. Forschungsprojekte in Oxford und Cambridge haben gezeigt, dass sogenannte Prebunking-Kampagnen – also gezielte Aufklärung über Manipulationstechniken – Menschen dabei helfen, Desinformation frühzeitig zu erkennen. Ein Beispiel dafür ist Google Jigsaw, das mit YouTube-Werbespots Menschen vor Wahlen sensibilisierte und damit messbare Effekte erzielte. Während meiner Zeit bei Landecker haben wir sowohl Forschung dazu als auch mehrere Kampagnen unterstützt und mitgestaltet.
Neben der Prävention sind auch eine schnellere Erfassung und bessere Koordination auf internationaler Ebene entscheidend. In Europa erschweren Sprachbarrieren, unterschiedliche Begriffe und Herangehensweisen die schnelle koordinierte Identifikation von Desinformationskampagnen. Hier setzen Projekte wie die Alliance for Europe und die Disarm Foundation an. Sie entwickelten ein standardisiertes Framework zur Erkennung grenzüberschreitender Desinformation, ähnlich dem WHO-Modell zur Krankheitsüberwachung. Dadurch konnten Erfassungs- und Reaktionszeiten erheblich verkürzt werden.
Aktuell übernehmen NGOs viele Aufgaben, die eigentlich in staatlicher Verantwortung liegen sollten. Aber staatliche Stellen bauen zunehmend eigene Monitoring-Kapazitäten auf. Eine effektive Strategie gegen Desinformation erfordert sektorübergreifende Kooperation – Forschung, Zivilgesellschaft und Politik müssen noch enger zusammenarbeiten, um digitale Resilienz nachhaltig zu stärken. Präventive Aufklärung und eine schnellere Erkennung internationaler Kampagnen sind essenziell, denn angesichts der Masse an Desinformation reicht ein rein reaktiver Ansatz nicht aus.
Wie schätzt du Maßnahmen der Regulierung von Desinformation und Hassrede durch Gesetze ein?
Den regulatorischen Ansatz finde ich super – er ist allerdings auch eine große Herausforderung. Zunächst gibt es einen wichtigen Unterschied zwischen Desinformation und Misinformation. Desinformation ist die absichtliche Verbreitung falscher Informationen zur Täuschung oder Manipulation, während Misinformation unbeabsichtigt entsteht und verbreitet wird. Bei Desinformation muss also eine Absicht nachgewiesen werden. Das ist systemisch schwierig. Desinformationskampagnen sind oft so angelegt, dass es schwer ist, die ursprüngliche Quelle zurückzuverfolgen.
Außerdem: Wer entscheidet, was als Desinformation gilt und wer überprüft das? Um eine Metapher zu verwenden: Wenn die Entscheidung darüber, was gefährliche Kommunikation ist, als Hammer dargestellt würde, dann könnte das politische Tagesgeschehen schnell dazu führen, dass jede unliebsame Kritik zum Nagel wird. Teile des Netzwerkduchsetzungsgesetzes (NetzDG) und des Digital Services Act (DSA) wurden etwa in anderen Ländern kopiert und eingesetzt, um die freie Meinungsäußerung einzudämmen – soweit darf es nicht kommen. Deshalb ist es so wichtig, solche Strukturen unabhängig zu halten. Was den Disarm-Framework so besonders macht, ist die Bindung an internationale Institutionen und Regierungen, ohne, dass diesen die Möglichkeit erübrigt wird, das politische Tagesgeschehen hierüber zu beeinflussen.
Ein interessantes Beispiel für Best Practices im Kampf gegen Hassrede durch Einflussnahme auf Politik und Strafverfolgung kommt von der University of Cardiff und dem Hate Lab, das hier hervorragende Arbeit geleistet hat. Insbesondere Professor Matthew Williams und sein Team haben bahnbrechende Forschung auf diesem Gebiet betrieben. Ihre Erkenntnisse und deren Anwendung sind nach wie vor eine sehr vertrauenswürdige Quelle, um solche Themen besser zu verstehen und praktische Lösungen zu entwickeln.
Wie kann langfristig digitale Resilienz in der Gesellschaft entstehen?
Ein entscheidender Schritt ist die Verstetigung erfolgreicher Ansätze. Wenn Bildungsformate wie kurze Sensibilisierungsvideos nachweisbar wirksam sind, dann sollte dieser Ansatz weiter ausgebaut werden. Dabei sollten nicht nur junge Menschen erreicht werden – auch ältere Generationen, die mit der digitalen Entwicklung oft nicht Schritt halten, brauchen gezielte Angebote. Hier ist es besonders wichtig, Inklusion mitzudenken. Das beginnt bei der Gestaltung, Tonalität, Barrierefreiheit, der Wahl des Mediums und endet beim Targeting.
Gleichzeitig reicht es nicht, Desinformation zu erkennen – Menschen müssen auch Vertrauen in demokratische Institutionen haben. Politische Bildung und digitale Resilienz müssen daher enger miteinander verzahnt werden.
Was möchtest du gemeinnützigen Organisationen an dieser Stelle noch mitgeben?
Zivilgesellschaftliche Initiativen leisten tagtäglich wertvolle Arbeit – oft im Verborgenen und ohne die Anerkennung, die sie verdienen. Es ist wichtig, diese Arbeit sichtbarer zu machen und gezielt zu unterstützen, sei es durch Spenden, ehrenamtliches Engagement oder strategische Partnerschaften. Jede Form der Unterstützung hilft, ihre Wirkung langfristig zu sichern.
Gleichzeitig sollte die Zivilgesellschaft ihre eigene finanzielle Unabhängigkeit stärken. Gerade in Zeiten knapper staatlicher Mittel und eines Rückgangs im Engagement großer Stiftungen, sind eine etablierte Spendenkultur und regelmäßige Fundraising-Initiativen entscheidend, um langfristig handlungsfähig zu bleiben.
Ein Hoffnungsschimmer ist das große Potenzial talentierter Fachkräfte, die nun z.B. aufgrund der zurückgefahrenen Trust & Safety-Maßnahmen aus Plattformen ausscheiden. Ihr Wissen und ihre Fähigkeiten können nun verstärkt in der Zivilgesellschaft eingebracht werden – sei es haupt- oder ehrenamtlich. Wenn es gelingt, dieses Momentum zu nutzen und diese Menschen langfristig gezielt einzubinden, könnte das die Zivilgesellschaft nachhaltig stärken.
Vielen Dank für das Gespräch!