Desinformation entgegenwirken: Strategien der Zivilgesellschaft
Im Interview spricht Dr. Jonas Fegert, Leiter des House of Participation am FZI Forschungszentrum Informatik, über die Herausforderungen von Desinformation und welche Lösungsansätze aus der Zivilgesellschaft helfen können.
Wie arbeitet ihr mit eurer Forschungsgruppe beim House of Participation (HoP) am Thema Desinformation?
Am HoP konzentrieren wir uns auf Digitale Demokratie und die Bekämpfung von Desinformation. Wir analysieren Plattform-Mechanismen und entwickeln technologische Lösungen, um Desinformation und Deepfakes zu erkennen und gesellschaftlicher Spaltung entgegenzuwirken. Um konkrete Tools zu entwickeln, arbeiten wir eng mit Anwendungspartnern zusammen, etwa für die Deepfake-Erkennung oder den Einsatz von KI gegen Desinformation. Ziel ist es, praxisnahe Ansätze zu fördern und Bürger*innenbeteiligung effektiv zu stärken.
Wie ist dein aktuelles Stimmungsbild zum Thema Desinformation, in Bezug auf Deutschland und darüber hinaus?
Desinformation stellt weltweit eine ernste Gefahr für Demokratien dar, insbesondere in Krisenzeiten und Konflikten, wo sie gezielt eingesetzt wird, um Demokratien zu destabilisieren. Entscheidend bei dem Begriff ist übrigens die Intention: Desinformation ist absichtliche Täuschung. Unbeabsichtigte falsche oder ungenaue Information hingegen ist Misinformation. Besonders besorgniserregend ist, wie auf sozialen Netzwerken Desinformation durch Personalisierung und Microtargeting verstärkt wird – auch, um Gruppen gegeneinander auszuspielen. Unterschiedliche Plattformen wie X oder TikTok bieten dabei jeweils spezifische Herausforderungen. Das Vorgehen gegen Desinformation braucht deshalb eine differenzierte Betrachtung, effektive Moderation und ein Bewusstsein für die vielfältigen Formen und Auswirkungen.
„Desinformation ist eine Herausforderung für Demokratien, insbesondere in Krisenzeiten. Durch den Aufbau belastbarer Forschungsinfrastrukturen, die Entwicklung innovativer technologischer Ansätze und die enge Zusammenarbeit von Wissenschaft, Zivilgesellschaft und Unternehmen wollen wir effektive Ansätze entwickeln, um die Resilienz der Gesellschaft gegen die Manipulation von Informationen zu stärken.“ Dr. Jonas Fegert (Foto: FZI)
Welche Gruppen sind von Desinformation am meisten betroffen?
Desinformation betrifft alle Altersgruppen, aber auf unterschiedliche Weise. Ältere Menschen sind oft anfälliger für Phishing-Websites, manipulative Videos oder lineare Propaganda-Sender, insbesondere bei eingeschränkter Medienkompetenz. Jüngere Generationen werden verstärkt über Plattformen wie TikTok erreicht, wo Inhalte emotionalisiert und gezielt verbreitet werden. Entscheidend ist der Kontext: Über welche Kanäle Desinformation verbreitet wird, beeinflusst, wer besonders betroffen ist. Medien- und Datenkompetenz sind deshalb zentrale Ansätze, um die gesamte Gesellschaft gegen Desinformation zu stärken.
Was braucht es jetzt, um Desinformation wirkungsvoll zu begegnen?
Um Desinformation effektiv zu begegnen, braucht es eine bessere Forschungsinfrastruktur und Zusammenarbeit zwischen Wissenschaft, Staat und Zivilgesellschaft. In Deutschland fehlt an Universitäten bislang ein systematisches Monitoring von Social-Media-Daten, das langfristig angelegt ist und die Auswirkungen von Desinformation auf die Gesellschaft umfassend untersucht. Andere Länder sind hier deutlich weiter.
Ein Ansatz von uns beim HoP ist der Aufbau einer solchen Dateninfrastruktur zu gesellschaftlichen Stimmungen offline und online. Diese beinhaltet die Durchführung repräsentativer Panels in Deutschland und den USA. Dabei erheben wir regelmäßig die gesellschaftlichen Stimmungen und setzen sie in Zusammenhang mit Social-Media-Daten und Nachrichteninhalten. So lässt sich unter anderem erforschen, ob und wie Desinformationsnarrative auf die Bevölkerung wirken. Ergebnisse aus dem Projekt Social Sentiment in Times of Crises werden auch regelmäßig mit dem Berliner Tagesspiegel veröffentlicht.
Zudem arbeiten wir daran, die Auswirkungen von Plattform-Mechanismen transparenter zu gestalten, etwa durch Simulationen von Netzwerken wie X und Telegram bei unserem Forschungsprojekt TWON. Ziel ist es, herauszufinden, wie Änderungen an Plattformen oder neue Regulierungen wirken könnten.
Ergänzend entwickeln wir bei unserem Projekt DeFaktS ein KI-Tool, das Desinformation anhand von Stilmitteln wie emotionalisierender Sprache erkennen und Nutzer warnen kann.
Solche Technologien bieten der Zivilgesellschaft konkrete Werkzeuge, um Desinformation besser zu verstehen, ihr entgegenzuwirken und die Resilienz gegenüber manipulativen Inhalten zu stärken.
Welche weiteren Handlungsansätze gibt es in der Zivilgesellschaft?
Es gibt vielfältige zivilgesellschaftliche Ansätze zur Bekämpfung von Desinformation, die auf unterschiedliche Zielgruppen zugeschnitten sind. Organisationen wie CeMAS oder AlgorithmWatch leisten wertvolle Monitoring-Arbeit und informieren Medien und die Zivilgesellschaft über aktuelle Entwicklungen.
Fact-Checking-Teams wie Correctiv decken gezielt Falschinformationen auf. Correctiv verfolgt mit dem NoFake-Projekt zudem partizipative Ansätze, bei denen Bürger selbst aktiv zum Fact-Checking beitragen können. Ein zentraler Schwerpunkt liegt auch auf der Förderung von Medienkompetenz und Durchführung von Bildungsprogrammen.
Oder praxisnahe Projekte wie der Business Council for Democracy, der sich an Auszubildende und Fachkräfte richtet. Hier werden Zielgruppen sensibilisiert, die in klassischen Schulungsangeboten oft übersehen werden. Sowas finde ich super.
Diese Ansätze kombinieren systematische Analyse, direkte gesellschaftliche Einbindung und gezielte Arbeit mit bestimmten Gruppen, um Desinformation effektiv zu begegnen und Medienkompetenz zu fördern.
Wie kann man sonst noch Zielgruppen erreichen, die vielleicht eh schon den klassischen Medien kritisch gegenüberstehen?
Da kann es sinnvoll sein, alternative Kanäle einzusetzen. Ein Beispiel dafür ist eine Kampagne von Jigsaw, einer Forschungseinheit von Google, die sogenannte „Prebunking”-Videos gegen Desinformation produziert hat. Diese wurden in verschiedenen Ländern ausgestrahlt, um Menschen für Desinformation zu sensibilisieren. Fokusgruppen haben gezeigt, dass es sinnvoll wäre, diese Videos nicht nur auf der eigenen Plattform YouTube zu verbreiten, sondern sie auch im linearen Fernsehen auszustrahlen, da bestimmte Zielgruppen auf Plattformen wie YouTube nicht mehr effektiv erreicht werden konnten. Die Nutzung klassischer Medien wie Fernsehen und Radio, die weiterhin eine große Reichweite haben, kann also eine gute Strategie sein. Auch die Zusammenarbeit mit etablierten Medienunternehmen, um Kompetenzen im Umgang mit Desinformation zu stärken, spielt hier eine wichtige Rolle.
Welche Hinweise hast du für Organisationen, die sich mit dem Thema Desinformation beschäftigen?
Es ist entscheidend, das konkrete Problem klar zu definieren, eine Strategie zu entwickeln, die Stärken der eigenen Organisation effektiv einzusetzen und passgenaue Ansätze für die jeweiligen Zielgruppen zu erarbeiten. Inhalte sollten gezielt auf die Plattformen abgestimmt sein, auf denen Desinformation verbreitet wird und dort auch stattfinden.
Viele Menschen glauben falsche Informationen leichter, weil diese ihr Weltbild stützen. KI-gestützte Desinformation wird immer raffinierter, weil sie sich gezielt an einzelne Personen anpassen kann – basierend auf Daten, die schon im Netz über uns existieren. Das macht sie noch wirkungsvoller und schwerer zu durchschauen. Organisationen sollten deshalb auf kreative Bildungsansätze setzen, um Menschen zu helfen, solche Manipulationen zu erkennen und damit umzugehen.
Auch die Plattformen selbst müssen stärker in den Fokus rücken, um dort Veränderungen anzustoßen. Der Dialog ist entscheidend, um Standards durchzusetzen und die Neutralitätsargumente der Plattformen kritisch zu hinterfragen. Die Zusammenarbeit mit erfahrenen Organisationen wie AlgorithmWatch, die für mehr Transparenz sorgen, kann bei dieser Aufgabe eine große Hilfe sein.
Meine Hoffnung wäre es, dass Organisationen in dem Bereich mit klar definierten Zielen, kreativen Lösungsansätzen und wirkungsvollen Kooperationen zusammenarbeiten, um so dem Einfluss von Desinformation etwas entgegenzusetzen. Die Herausforderungen sind groß – deshalb brauchen wir ein Miteinander von Zivilgesellschaft, Wissenschaft, Staat und Unternehmen für resilientere digitale Demokratien.
Vielen Dank für das Gespräch!