Des­in­for­ma­ti­on ent­ge­gen­wir­ken: Stra­te­gien der Zivilgesellschaft

PHINEO-Redaktion,
19.12.2024

Im Inter­view spricht Dr. Jonas Fegert, Lei­ter des House of Par­ti­ci­pa­ti­on am FZI For­schungs­zen­trum Infor­ma­tik, über die Her­aus­for­de­run­gen von Des­in­for­ma­ti­on und wel­che Lösungs­an­sät­ze aus der Zivil­ge­sell­schaft hel­fen können. 

Wie arbei­tet ihr mit eurer For­schungs­grup­pe beim House of Par­ti­ci­pa­ti­on (HoP) am The­ma Desinformation? 

Am HoP kon­zen­trie­ren wir uns auf Digi­ta­le Demo­kra­tie und die Bekämp­fung von Des­in­for­ma­ti­on. Wir ana­ly­sie­ren Platt­form-Mecha­nis­men und ent­wi­ckeln tech­no­lo­gi­sche Lösun­gen, um Des­in­for­ma­ti­on und Deepf­akes zu erken­nen und gesell­schaft­li­cher Spal­tung ent­ge­gen­zu­wir­ken. Um kon­kre­te Tools zu ent­wi­ckeln, arbei­ten wir eng mit Anwen­dungs­part­nern zusam­men, etwa für die Deepf­ake-Erken­nung oder den Ein­satz von KI gegen Des­in­for­ma­ti­on. Ziel ist es, pra­xis­na­he Ansät­ze zu för­dern und Bürger*innenbeteiligung effek­tiv zu stärken.

Wie ist dein aktu­el­les Stim­mungs­bild zum The­ma Des­in­for­ma­ti­on, in Bezug auf Deutsch­land und dar­über hinaus? 

Des­in­for­ma­ti­on stellt welt­weit eine erns­te Gefahr für Demo­kra­tien dar, ins­be­son­de­re in Kri­sen­zei­ten und Kon­flik­ten, wo sie gezielt ein­ge­setzt wird, um Demo­kra­tien zu desta­bi­li­sie­ren. Ent­schei­dend bei dem Begriff ist übri­gens die Inten­ti­on: Des­in­for­ma­ti­on ist absicht­li­che Täu­schung. Unbe­ab­sich­tig­te fal­sche oder unge­naue Infor­ma­ti­on hin­ge­gen ist Mis­in­for­ma­ti­on. Beson­ders besorg­nis­er­re­gend ist, wie auf sozia­len Netz­wer­ken Des­in­for­ma­ti­on durch Per­so­na­li­sie­rung und Micro­tar­ge­ting ver­stärkt wird – auch, um Grup­pen gegen­ein­an­der aus­zu­spie­len. Unter­schied­li­che Platt­for­men wie X oder Tik­Tok bie­ten dabei jeweils spe­zi­fi­sche Her­aus­for­de­run­gen. Das Vor­ge­hen gegen Des­in­for­ma­ti­on braucht des­halb eine dif­fe­ren­zier­te Betrach­tung, effek­ti­ve Mode­ra­ti­on und ein Bewusst­sein für die viel­fäl­ti­gen For­men und Auswirkungen.

Des­in­for­ma­ti­on ist eine Her­aus­for­de­rung für Demo­kra­tien, ins­be­son­de­re in Kri­sen­zei­ten. Durch den Auf­bau belast­ba­rer For­schungs­in­fra­struk­tu­ren, die Ent­wick­lung inno­va­ti­ver tech­no­lo­gi­scher Ansät­ze und die enge Zusam­men­ar­beit von Wis­sen­schaft, Zivil­ge­sell­schaft und Unter­neh­men wol­len wir effek­ti­ve Ansät­ze ent­wi­ckeln, um die Resi­li­enz der Gesell­schaft gegen die Mani­pu­la­ti­on von Infor­ma­tio­nen zu stär­ken.“ Dr. Jonas Fegert (Foto: FZI)

Wel­che Grup­pen sind von Des­in­for­ma­ti­on am meis­ten betroffen?

Des­in­for­ma­ti­on betrifft alle Alters­grup­pen, aber auf unter­schied­li­che Wei­se. Älte­re Men­schen sind oft anfäl­li­ger für Phis­hing-Web­sites, mani­pu­la­ti­ve Vide­os oder linea­re Pro­pa­gan­da-Sen­der, ins­be­son­de­re bei ein­ge­schränk­ter Medi­en­kom­pe­tenz. Jün­ge­re Gene­ra­tio­nen wer­den ver­stärkt über Platt­for­men wie Tik­Tok erreicht, wo Inhal­te emo­tio­na­li­siert und gezielt ver­brei­tet wer­den. Ent­schei­dend ist der Kon­text: Über wel­che Kanä­le Des­in­for­ma­ti­on ver­brei­tet wird, beein­flusst, wer beson­ders betrof­fen ist. Medi­en- und Daten­kom­pe­tenz sind des­halb zen­tra­le Ansät­ze, um die gesam­te Gesell­schaft gegen Des­in­for­ma­ti­on zu stärken.

Was braucht es jetzt, um Des­in­for­ma­ti­on wir­kungs­voll zu begegnen?

Um Des­in­for­ma­ti­on effek­tiv zu begeg­nen, braucht es eine bes­se­re For­schungs­in­fra­struk­tur und Zusam­men­ar­beit zwi­schen Wis­sen­schaft, Staat und Zivil­ge­sell­schaft. In Deutsch­land fehlt an Uni­ver­si­tä­ten bis­lang ein sys­te­ma­ti­sches Moni­to­ring von Social-Media-Daten, das lang­fris­tig ange­legt ist und die Aus­wir­kun­gen von Des­in­for­ma­ti­on auf die Gesell­schaft umfas­send unter­sucht. Ande­re Län­der sind hier deut­lich weiter.

Ein Ansatz von uns beim HoP ist der Auf­bau einer sol­chen Daten­in­fra­struk­tur zu gesell­schaft­li­chen Stim­mun­gen off­line und online. Die­se beinhal­tet die Durch­füh­rung reprä­sen­ta­ti­ver Panels in Deutsch­land und den USA. Dabei erhe­ben wir regel­mä­ßig die gesell­schaft­li­chen Stim­mun­gen und set­zen sie in Zusam­men­hang mit Social-Media-Daten und Nach­rich­ten­in­hal­ten. So lässt sich unter ande­rem erfor­schen, ob und wie Des­in­for­ma­ti­ons­nar­ra­ti­ve auf die Bevöl­ke­rung wir­ken. Ergeb­nis­se aus dem Pro­jekt Social Sen­ti­ment in Times of Cri­ses wer­den auch regel­mä­ßig mit dem Ber­li­ner Tages­spie­gel veröffentlicht.

Zudem arbei­ten wir dar­an, die Aus­wir­kun­gen von Platt­form-Mecha­nis­men trans­pa­ren­ter zu gestal­ten, etwa durch Simu­la­tio­nen von Netz­wer­ken wie X und Tele­gram bei unse­rem For­schungs­pro­jekt TWON. Ziel ist es, her­aus­zu­fin­den, wie Ände­run­gen an Platt­for­men oder neue Regu­lie­run­gen wir­ken könnten. 

Ergän­zend ent­wi­ckeln wir bei unse­rem Pro­jekt DeFaktS ein KI-Tool, das Des­in­for­ma­ti­on anhand von Stil­mit­teln wie emo­tio­na­li­sie­ren­der Spra­che erken­nen und Nut­zer war­nen kann. 

Sol­che Tech­no­lo­gien bie­ten der Zivil­ge­sell­schaft kon­kre­te Werk­zeu­ge, um Des­in­for­ma­ti­on bes­ser zu ver­ste­hen, ihr ent­ge­gen­zu­wir­ken und die Resi­li­enz gegen­über mani­pu­la­ti­ven Inhal­ten zu stärken.

Wel­che wei­te­ren Hand­lungs­an­sät­ze gibt es in der Zivilgesellschaft?

Es gibt viel­fäl­ti­ge zivil­ge­sell­schaft­li­che Ansät­ze zur Bekämp­fung von Des­in­for­ma­ti­on, die auf unter­schied­li­che Ziel­grup­pen zuge­schnit­ten sind. Orga­ni­sa­tio­nen wie CeMAS oder Algo­rith­m­Watch leis­ten wert­vol­le Moni­to­ring-Arbeit und infor­mie­ren Medi­en und die Zivil­ge­sell­schaft über aktu­el­le Entwicklungen.

Fact-Che­cking-Teams wie Cor­rec­tiv decken gezielt Falsch­in­for­ma­tio­nen auf. Cor­rec­tiv ver­folgt mit dem NoFake-Pro­jekt zudem par­ti­zi­pa­ti­ve Ansät­ze, bei denen Bür­ger selbst aktiv zum Fact-Che­cking bei­tra­gen kön­nen. Ein zen­tra­ler Schwer­punkt liegt auch auf der För­de­rung von Medi­en­kom­pe­tenz und Durch­füh­rung von Bildungsprogrammen. 

Oder pra­xis­na­he Pro­jek­te wie der Busi­ness Coun­cil for Demo­cra­cy, der sich an Aus­zu­bil­den­de und Fach­kräf­te rich­tet. Hier wer­den Ziel­grup­pen sen­si­bi­li­siert, die in klas­si­schen Schu­lungs­an­ge­bo­ten oft über­se­hen wer­den. Sowas fin­de ich super. 

Die­se Ansät­ze kom­bi­nie­ren sys­te­ma­ti­sche Ana­ly­se, direk­te gesell­schaft­li­che Ein­bin­dung und geziel­te Arbeit mit bestimm­ten Grup­pen, um Des­in­for­ma­ti­on effek­tiv zu begeg­nen und Medi­en­kom­pe­tenz zu fördern.

Wie kann man sonst noch Ziel­grup­pen errei­chen, die viel­leicht eh schon den klas­si­schen Medi­en kri­tisch gegenüberstehen?

Da kann es sinn­voll sein, alter­na­ti­ve Kanä­le ein­zu­set­zen. Ein Bei­spiel dafür ist eine Kam­pa­gne von Jig­saw, einer For­schungs­ein­heit von Goog­le, die soge­nann­te Prebunking”-Videos gegen Des­in­for­ma­ti­on pro­du­ziert hat. Die­se wur­den in ver­schie­de­nen Län­dern aus­ge­strahlt, um Men­schen für Des­in­for­ma­ti­on zu sen­si­bi­li­sie­ren. Fokus­grup­pen haben gezeigt, dass es sinn­voll wäre, die­se Vide­os nicht nur auf der eige­nen Platt­form You­Tube zu ver­brei­ten, son­dern sie auch im linea­ren Fern­se­hen aus­zu­strah­len, da bestimm­te Ziel­grup­pen auf Platt­for­men wie You­Tube nicht mehr effek­tiv erreicht wer­den konn­ten. Die Nut­zung klas­si­scher Medi­en wie Fern­se­hen und Radio, die wei­ter­hin eine gro­ße Reich­wei­te haben, kann also eine gute Stra­te­gie sein. Auch die Zusam­men­ar­beit mit eta­blier­ten Medi­en­un­ter­neh­men, um Kom­pe­ten­zen im Umgang mit Des­in­for­ma­ti­on zu stär­ken, spielt hier eine wich­ti­ge Rolle.

Wel­che Hin­wei­se hast du für Orga­ni­sa­tio­nen, die sich mit dem The­ma Des­in­for­ma­ti­on beschäftigen?

Es ist ent­schei­dend, das kon­kre­te Pro­blem klar zu defi­nie­ren, eine Stra­te­gie zu ent­wi­ckeln, die Stär­ken der eige­nen Orga­ni­sa­ti­on effek­tiv ein­zu­set­zen und pass­ge­naue Ansät­ze für die jewei­li­gen Ziel­grup­pen zu erar­bei­ten. Inhal­te soll­ten gezielt auf die Platt­for­men abge­stimmt sein, auf denen Des­in­for­ma­ti­on ver­brei­tet wird und dort auch stattfinden.

Vie­le Men­schen glau­ben fal­sche Infor­ma­tio­nen leich­ter, weil die­se ihr Welt­bild stüt­zen. KI-gestütz­te Des­in­for­ma­ti­on wird immer raf­fi­nier­ter, weil sie sich gezielt an ein­zel­ne Per­so­nen anpas­sen kann – basie­rend auf Daten, die schon im Netz über uns exis­tie­ren. Das macht sie noch wir­kungs­vol­ler und schwe­rer zu durch­schau­en. Orga­ni­sa­tio­nen soll­ten des­halb auf krea­ti­ve Bil­dungs­an­sät­ze set­zen, um Men­schen zu hel­fen, sol­che Mani­pu­la­tio­nen zu erken­nen und damit umzugehen.

Auch die Platt­for­men selbst müs­sen stär­ker in den Fokus rücken, um dort Ver­än­de­run­gen anzu­sto­ßen. Der Dia­log ist ent­schei­dend, um Stan­dards durch­zu­set­zen und die Neu­tra­li­täts­ar­gu­men­te der Platt­for­men kri­tisch zu hin­ter­fra­gen. Die Zusam­men­ar­beit mit erfah­re­nen Orga­ni­sa­tio­nen wie Algo­rith­m­Watch, die für mehr Trans­pa­renz sor­gen, kann bei die­ser Auf­ga­be eine gro­ße Hil­fe sein.

Mei­ne Hoff­nung wäre es, dass Orga­ni­sa­tio­nen in dem Bereich mit klar defi­nier­ten Zie­len, krea­ti­ven Lösungs­an­sät­zen und wir­kungs­vol­len Koope­ra­tio­nen zusam­men­ar­bei­ten, um so dem Ein­fluss von Des­in­for­ma­ti­on etwas ent­ge­gen­zu­set­zen. Die Her­aus­for­de­run­gen sind groß – des­halb brau­chen wir ein Mit­ein­an­der von Zivil­ge­sell­schaft, Wis­sen­schaft, Staat und Unter­neh­men für resi­li­en­te­re digi­ta­le Demokratien.

Vie­len Dank für das Gespräch!

Kontakt:

Emmanuel Klauk

Philanthropieberatung & Impact Management