Frau Ballon, die Organisation HateAid, für die Sie als Geschäftsführerin wirken, wird „Trusted Flagger“. Was ist das?
Ein Trusted Flagger, zu deutsch „vertrauenswürdiger Hinweisgeber“, ist eine Stelle, so sagt es das Gesetz, die bei sehr großen Onlineplattformen wie zum Beispiel X, den Meta-Plattformen oder Tiktok einen privilegierten Meldekanal für rechtswidrige Inhalte erhält. Geregelt ist das im europäischen Digital Services Act (DSA) in Artikel 22. Das ist mir wichtig zu betonen: Es gibt jetzt erstmals eine gesetzliche Regelung für Trusted Flagger. Das Instrument gibt es schon länger, aber bislang nur in einem ungeregelten Rahmen. Da ging es um freiwillige Programme der großen Social-Media-Plattformen, die meistens gemeinnützigen Organisationen die Gelegenheit gaben, an Programmen teilzunehmen. Anders als jetzt nach dem Digital Services Act ging es vor allem um Meldungen nach den Allgemeinen Geschäftsbedingungen, die Community-Guidelines oder ähnlich heißen, der Plattform. Die Trusted Flagger nach dem DSA nutzen die gesetzlich vorgesehenen Meldewege für illegale Inhalte. Die Plattformen sollen in Europa dafür Sorge tragen, dass sie das entsprechend umsetzen.
Warum ist das nötig? Wir haben jede Menge Hinweisgeber auf rechtswidrige Inhalte bei den Plattformen, zum Beispiel die Landesmedienanstalten.
Die Frage ist durchaus berechtigt. Ich weiß nicht, ob Sie sich vielleicht daran erinnern, aber ganz am Anfang, als der Kommissionsentwurf des DSA veröffentlicht wurde, hat die Kommissarin Margrethe Vestager dem „Spiegel“ ein Interview gegeben, in dem sie gefragt wurde, wie wir mit den illegalen Inhalten umgehen sollten. Die Plattformen sagten, es sei viel zu kompliziert, nach illegalen Inhalten zu suchen. Und da sagte sie sehr selbstbewusst, wir wollen gar nicht, dass die Plattformen mit Uploadfiltern aktiv werden, das ist unzuverlässig und schwer zu überprüfen. Wir haben ein neues Instrument, und zwar die Trusted Flagger. Da dachte ich erst mal: Interessant, dass wir uns darauf verlassen wollen. Der Gedanke dahinter ist, durch die Hinweisgeber ein Korrektiv zu schaffen, denn wenn Plattformen per se erst mal nicht haften, nicht verpflichtet werden und nicht selbst illegale Inhalte prüfen, muss es trotzdem Wege geben, darauf hinzuwirken, diese Inhalte zu entfernen. Die Landesmedienanstalten haben einen sehr verengten Zuständigkeitsbereich für jugendgefährdende Inhalte, unter die auch extremistische, verfassungsfeindliche Inhalte fallen. Aber da geht es nicht darum, die Bevölkerung davor zu schützen, dauerhaft mit illegalen Inhalten konfrontiert zu werden. Wer sorgt also dafür, dass die Plattformen tätig werden? Die Plattformen müssen erst handeln, wenn sie positive Kenntnis von illegalen Inhalten haben. Sie müssen darauf aufmerksam gemacht werden. Wir haben aus guten Gründen keine Internetpolizei, die soziale Netzwerke durchforstet, und es ist auch nicht sinnvoll, die Kontrolle komplett auf die Nutzenden auszulagern. Sie müssen sich nur einmal anschauen, wie abschreckend und kompliziert die Meldewege ausgestaltet sind. Wir haben mit dem „Kompetenznetzwerk gegen Hass im Netz“ Anfang letzten Jahres eine Studie herausgegeben, die ergeben hat, dass nur ungefähr 30 Prozent derjenigen, die Hassrede im Internet wahrnehmen, diese tatsächlich bei der Plattform melden. Trusted Flagger sollen hier ein Korrektiv bilden, eine zusätzliche Instanz, die Inhalte meldet, die von Nutzenden an sie herangetragen werden oder die sie selbst findet. Wie wirksam das Instrument ist, werden wir noch sehen. Wir werden übrigens nicht dafür vergütet, dass wir illegale Inhalte im Internet melden.
Sie werden dafür nicht vergütet?
Nein, weder von der Europäischen Kommission noch von der deutschen Aufsichtsbehörde.
Sie bestreiten Ihren Etat wie bisher? 2023 waren das 4,76 Millionen Euro, davon knapp 1,2 Millionen staatliche Förderung aus dem Familien- und dem Justizministerium. Sie beschäftigen rund 50 Mitarbeiter. Da kommt nichts hinzu?
Nein, da kommt nichts hinzu. Wir müssen sehen, was wir bewerkstelligen können mit den Ressourcen, die wir schon haben.
Was zeigen Sie den Plattformen an? Es gibt eine berechtigte Debatte darüber, welche Inhalte als gefährlich eingestuft werden. Welche unter die Meinungsfreiheit fallen, eine Beleidigung darstellen, bis hin zur Volksverhetzung. Im Strafgesetzbuch finden wir die Tatbestände. Es ist aber auch unbestimmt die Rede davon, gegen „Hass“ und „Hetze“ vorzugehen.
Das Gesetz ist sehr eindeutig. Es soll darum gehen, dass Trusted Flagger rechtswidrige Inhalte bei den Plattformen melden. Daraus folgt kein Rechtsanspruch darauf, dass Inhalte gelöscht werden. Die Trusted Flagger haben keinen magischen Löschknopf. Die gesetzliche Prüfpflicht und die Entscheidung darüber, ob etwas entfernt wird, liegt einzig und allein bei den Plattformen. Wir beschäftigen Juristinnen und Juristen, sowohl mit erstem wie auch mit zweitem Staatsexamen, die damit betraut werden, Inhalte zu überprüfen und zu melden. Selbstverständlich gibt es da Interpretationsspielraum. Die Abwägungsentscheidungen im Äußerungsrecht können sehr schwierig sein. Aber im Rahmen dessen, was uns möglich ist, beurteilen wir, ob es sich zum Beispiel um eine strafbare Beleidigung, eine strafbare Bedrohung, um einen Aufruf zu Gewalt, Volksverhetzung und Holocaustleugnung handelt. Seit 2019 ist Hate-Aid Teil des Kooperationsverbundes „Keine Macht dem Hass“ in Hessen und leitet strafbare Inhalte an die Zentralstelle Internetkriminalität aus. Wir haben an dieser Stelle einen weitaus höheren Qualitätsstandard, als es bei den Plattformen der Fall ist. Dort ist es eher eine Seltenheit, dass tatsächlich juristisch geschulte Personen die Inhalte prüfen. Wenn man sich die Transparenzberichte der Plattformen ansieht, darf man bezweifeln, dass das Menschen sind, die mit den lokalen oder jeweiligen nationalen Rechtsvorschriften vertraut sind.
Nährboden für Beleidigungen: die Plattformen von MetadpaKritik an Ihrer Organisation lautet darauf, dass Sie vor allem prominente – grüne – Politiker darauf aufmerksam machten, dass im Internet irgendetwas über sie behautet wird und die Politiker dann Strafanzeige erstatten. Sie haben zum Beispiel die Grünenpolitikerin Renate Künast bei ihrem Kampf gegen verleumderische Äußerungen begleitet. Bedienen Sie eine bestimmte politische Klientel?
Es stimmt, wir haben mit Renate Künast Öffentlichkeitsarbeit gemacht, weil sie – das rechne ich ihr hoch an – bereit war, über ihr Engagement und über die Verfahren zu sprechen und damit auch andere Betroffene zu unterstützen. Dadurch ist die Wahrnehmung, die Sie ansprechen, entstanden. Es ist schlicht falsch zu sagen, wir seien dazu da, Politiker zu unterstützen oder insbesondere grüne Politiker zu unterstützen. Wenn solche unwahren Äußerungen in der Presse behauptet werden, gehen wir dagegen regelmäßig und erfolgreich vor. Tatsächlich ist nur ein sehr kleiner Prozentsatz – einstellig – der Menschen, die wir unterstützt haben, in der Politik. Wir haben seit unserer Gründung Ende 2018 mehr als 6000 Menschen in unserer Betroffenenberatung gehabt und mehr als 300 Menschen mit Prozesskostenfinanzierung unterstützt. Da geht es um Aktivistinnen, Journalistinnen und um viele Menschen, die gar nicht in der Öffentlichkeit stehen. Hate-Aid arbeitet unabhängig, parteipolitisch neutral und überparteilich. Wir sind vor allem überparteilich. Das kann man schon an unseren Beirat sehen, beispielsweise mit Nadine Schön von der CDU und Brigitte Zypries von der SPD. Wir haben öffentlichkeitswirksame Kampagnen für Menschenrechte im digitalen Raum mit Thorsten Lieb von der FDP gemacht. Wir haben Karamba Diaby von der SPD unterstützt. Zwar können wir nicht immer offen über unsere Beratung sprechen, denn da gibt es natürlich ein Vertrauensverhältnis – viele Menschen wollen nicht darüber sprechen, dass und wie sie sich gegen diesen Hass wehren. Denn die Konsequenz ist, dass es meistens wieder von vorne losgeht oder sogar noch schlimmer wird. Und deswegen sind in meinen Augen Menschen wie Renate Künast, aber auch andere, die sich öffentlichkeitswirksam für dieses Thema einsetzen, sehr wichtig.
Stichwort Unabhängigkeit und Überparteilichkeit. Die Bundesnetzagentur hat in ihrer Eigenschaft als zuständiger „Digital Services Coordinator“ HateAid als Trusted Flagger auserkoren. Sie sitzen im Beirat der „Digital Services Coordinator“-Stelle. Haben Sie sich selbst für den Job nominiert?
In dem Beirat geht es um die Expertise wegen der Tätigkeit in Organisationen oder Einrichtungen, nicht um Personen. Der Zertifizierungsbescheid der Bundesnetzagentur setzt sich mit der von Ihnen gestellten Frage auch auseinander, was ich sehr positiv finde. Die Expertise der im Beirat vertretenen Organisationen sollte meines Erachtens nicht zu einem Ausschluss als Trusted Flagger führen. Hate-Aid hat sich im August letzten Jahres beworben. Meine Beiratstätigkeit hat uns jedenfalls keine Vorzugsbehandlung eingebracht. Wir haben genauso gewartet wie andere. Es ist mir aufgrund meiner Zuständigkeiten überhaupt nicht möglich, Einfluss zu nehmen, denn der Beirat hat eine ausschließlich beratende Tätigkeit. Er ist divers besetzt mit Vertretern der Zivilgesellschaft, der Wirtschaft und der Wissenschaft. Und es war im Beirat auch kein Thema, wer Trusted Flagger wird. Anderenfalls hätte ich meine Rolle natürlich reflektiert.
Zweiter Punkt zum Stichwort Unabhängigkeit: Im Beirat von Hate-Aid sitzt eine Vertreterin der Reiseplattform Airbnb. Von Airbnb haben Sie einmal eine Zuwendung von 100.000 Euro bekommen.
Das haben wir im Zertifizierungsverfahren dargelegt. In unserem Beirat sitzt Ellen Madeker, die Leiterin Public Policy für Europa von Airbnb, als Person wegen ihrer persönlichen Expertise. Würde sie aus unserem Beirat ausscheiden, hieße das nicht, dass jemand anderes von Airbnb an ihre Stelle träte. Und was unsere Unabhängigkeit betrifft: Unser jährlicher Gesamtetat beläuft sich auf knapp fünf Millionen Euro. 100.000 Euro sind davon nur ein geringer Teil, der nicht geeignet ist, bei uns Entscheidungsprozesse zu beeinflussen. Und auch dieser Beirat hat nur eine beratende Funktion. Es gibt keinerlei Möglichkeit, sich ins operative Geschäft einzumischen. Hinzu kommt, dass Airbnb keine Plattform ist, auf der typischerweise digitale Gewalt verbreitet wird. Und dann muss man als Trusted Flagger übrigens noch angeben, für welche Plattformen man zugelassen werden will. Airbnb ist nicht darunter.
Zurück zu Ihrem operativen Tun: Schlagzeilen machte in Sachen Verfolgung von Äußerungen im Netz der Fall des damaligen Wirtschaftsministers Robert Habeck, der Strafanzeige gegen jemanden stellte, der ihn „Schwachkopf Professional“ genannt hatte. Da fragt man sich: Müssen Politiker sich das nicht gefallen lassen?
Mit diesem Fall hatte HateAid nichts zu tun. Wenn Sie mich persönlich fragen: Ich denke, dass das keine strafbare Beleidigung ist. Was mich an der Debatte aber stört, ist, dass die Entscheidung auf die betroffene Person abgewälzt wird. Wir leben in einem Rechtsstaat, und jedem steht es frei, Strafanzeige zu erstatten. Natürlich darf das nicht missbräuchlich sein. In dem Fall hat Robert Habeck nicht mal die Strafanzeige erstattet, sondern einen Strafantrag gestellt, weil er von der Polizei gefragt wurde. Die betroffenen Personen sind in meinen Augen niemals „schuld“ daran, dass sie etwas anzeigen. Die Aufgabe zu überprüfen, ob es eine Strafverfolgung gibt, ob überhaupt ein Anfangsverdacht für eine Straftat vorliegt, das ist nicht Aufgabe der Betroffenen. Die Strafverfolgungsbehörden müssen entscheiden. Und im Rechtsstaat gibt es auch Möglichkeiten, sich wiederum dagegen zu wehren. Was die Grenzen der Meinungsfreiheit und das allgemeine Persönlichkeitsrecht angeht, hat das Bundesverfassungsgericht im Fall von Renate Künast einen ausführlichen Katalog aufgestellt. Wie bei Beleidigungen im Internet abzuwägen ist, das ist sehr klar. Wenn jemand mit Schimpfwörtern belegt wird, ohne dass es irgendeine sachliche Auseinandersetzung mit einem Thema gibt oder mit einer politischen Haltung, dann handelt es sich um eine sogenannte Formalbeleidigung. Politiker müssen mehr aushalten als andere Menschen, aber es muss eine Sachauseinandersetzung mit ihrem politischen Wirken geben. Auch Menschen in der Politik sind kein Freiwild. Und sie sind keine Objekte, denen man jegliche Menschlichkeit absprechen und auf die man alles projizieren darf.
Es geht nicht um Zensur, um den Ausschluss der Meinung von politisch Andersdenkenden?
Nein, geht es nicht. Die Durchsetzung geltenden Rechts zu Zensur umzudichten ist nicht demokratisch. Und damit meine ich sowohl die europäische Digitalgesetzgebung, den Digital Services Act, als auch das Strafgesetz. Es geht darum, die Plattformen auf strafbare Inhalte aufmerksam zu machen, zu deren Auffindung sie selbst nicht verpflichtet werden können. Wer hier von Zensur spricht, der will, dass illegale Inhalte wie antisemitische Volksverhetzung, Holocaustleugnung, Bedrohung und Beleidigungen für alle auf den großen Social-Media-Plattformen sichtbar bleiben. Daran sollten wir kein Interesse haben. Ich finde, dass das eines Rechtsstaats unwürdig ist.
Halten Sie es für realistisch, etwas zu bewirken? Ich denke, die Konzerne scheren sich um nichts mehr. Die US-Plattformen haben sich mit dem Präsidenten Donald Trump verbündet. Will die EU etwas gegen X und Elon Musk unternehmen, sagt US-Vizepräsisent J. D. Vance: Wir treten aus der Nato aus.
Das Beispiel zeigt deutlich, dass diejenigen, die behaupten, zivilgesellschaftliche Organisationen und Verbände würden als Trusted Flagger Zensur ausüben, tatsächlich mit staatlicher Macht versuchen, selbst Zensur durchzudrücken. Der Digital Services Act ist nichts anderes als der Versuch, in Europa demokratische Werte im digitalen Raum zu verankern und unsere Demokratie, die EU-Mitgliedstaaten und jeden einzelnen Nutzenden gegen die Willkür der Techplattformen zu verteidigen. Gäbe es den Digital Services Act nicht, würde allein das Recht der Plattformen gelten, die nur ein Interesse haben: Profit. Dem ordnen sie im Zweifel alles unter. Denn nicht die Demokratie ist das Geschäftsmodell, sondern Werbung. Die Plattformen haben keinen Anreiz, den Erhalt der Demokratie an die erste Stelle zu stellen. Auch wenn es bisher keinen Beweis für die Destabilisierung der Demokratie durch Social-Media-Plattformen gibt, gibt es doch eine zeitliche Koinzidenz. Das Aufkommen von Social Media fällt zeitlich mit der Schwächung von Demokratien weltweit zusammen. Mich wundert es nicht, denn sie lassen sich kapern. Indem sie extreme Ansichten mit großer Reichweite belohnen, tragen sie zur Polarisierung der Gesellschaft bei.



