EU plant striktere Online-Alterskontrollen

8 months ago 8

Geht es nach der EU-Kommission, sollen Menschen in der EU künftig ihren Ausweis zücken, bevor sie im Netz Pornos abrufen oder Alkohol kaufen können. Jugendliche sollen keine Likes von fremden Leuten einsammeln können und keine Feeds mehr serviert bekommen, in denen man unendlich lange scrollen kann.

Diese und weitere Empfehlungen gehen aus den neuen Leitlinien („Guidelines“) zum Schutz von Minderjährigen hervor, die auf dem Gesetz über digitale Dienste (DSA) basieren. Aktuell sind die Leitlinien nur ein Entwurf. Bis zum 10. Juni kann die interessierte Öffentlichkeit dazu Feedback geben. Wir haben uns die 39 Seiten angeschaut und beantworten die wichtigsten Fragen.

Für wen gelten die Leitlinien?

Die Leitlinien gelten für Online-Dienste, die unter das Gesetz für digitale Dienste (DSA) fallen, für Minderjährige zugänglich sind und nicht als „sehr groß“ eingestuft werden. Dazu gehören etwa Online-Marktplätze, soziale Netzwerke und Content-Sharing-Plattformen mit weniger als 45 Millionen monatlichen EU-Nutzer*innen. Plattformen mit noch mehr Nutzer*innen gelten als „sehr groß“, darunter fallen etwa TikTok, Instagram und YouTube. Für sie sieht der DSA noch mehr Verpflichtungen vor.

Die Formulierung „für Minderjährige zugänglich“ schließt den Leitlinien zufolge ausdrücklich Pornoseiten mit ein. Demnach genüge es nicht, wenn die Seiten etwa in den Nutzungsbedingungen minderjährige Nutzer*innen ausschließen. Viele fragen zudem per Pop-up, ob man erwachsen ist; auch das überzeugt die EU-Kommission offenkundig nicht.

Pornoseiten hatte die EU-Kommission bereits vorher im Visier, und zwar auf Basis der DSA-Regelungen für sehr große Plattformen. Unter anderem Pornhub und XVideos haben diesen Status.

Sind die Leitlinien verpflichtend?

Nein, die Leitlinien sind nur Empfehlungen. Anbieter können sie berücksichtigen, um die gesetzlichen Anforderungen zu erfüllen. Sie können aber auch andere Wege wählen. Ob ein Anbieter das Gesetz über digitale Dienste letztlich einhält oder nicht, müssten Gerichte von Fall zu Fall entscheiden. Dennoch bezeichnet die Kommission die Leitlinien als „bedeutsame Orientierungshilfe“. Aus dem Text geht klar hervor: Wer kein Risiko eingehen und Ärger vermeiden will, sollte sich diese Leitlinien genau anschauen.

Die Leitlinien verfolgen dabei einen individuellen Ansatz: Jeder Dienst muss sich demnach fragen, welche spezifischen Risiken das eigene Angebot für Minderjährige bergen kann. Auf dieser Grundlage sollen die ergriffenen Maßnahmen verhältnismäßig sein und sich unter anderem an Kinderrechte, Privatsphäre und Datenschutz halten.

Welche Form von Alterskontrollen will die Kommission?

Alterskontrollen sind ein zentraler Baustein in den Leitlinien. Wer das Alter von Menschen im Netz prüfen möchte, kann milde oder strenge Methoden wählen. Die Leitlinien empfehlen jedoch vor allem strenge Methoden, etwa per Ausweiskontrolle („age verification“).

Solche strengen Methoden sehen die Leitlinien etwa für Pornoseiten, Glücksspiel und Shoppingseiten für Alkohol vor, also für Angebote ab 18 Jahren. Strenge Alterskontrollen soll es außerdem dann geben, wenn mildere Mittel nicht funktionieren, um Risiken wie etwa schädliche Inhalte oder Grooming zu vermeiden. Grooming nennt man es, wenn Erwachsene im Netz sexuelle Kontakte zu Kindern anbahnen.

Für solche strengen Alterskontrollen will die EU-Kommission eine eigene Lösung entwickeln und hat dafür bereits ein App-Konzept vorgelegt. Die App soll eine Übergangslösung sein, bis ab voraussichtlich Ende 2026 die geplante digitale Brieftasche der EU auch Altersnachweise erbringen kann. Für die Alterskontroll-App der EU gilt ähnlich wie für die DSA-Leitlinien: Sie ist ein Maßstab, aber keine Pflicht.

Für Inhalte mit niedrigeren Altersschranken, etwa ab 16 Jahren, sehen die Leitlinien Methoden der Alterskontrolle vor, bei denen das Alter einer Person geschätzt wird („age estimation“). So etwas ist möglich, indem man etwa sein Gesicht vor der Webcam präsentiert, und ein KI-Modell anhand biometrischer Merkmale schätzt, ob eine Person erwachsen aussieht. Auch wenn es für manche vielleicht besonders unangenehm ist, ihr Gesicht biometrisch scannen zu lassen, betrachtet die Kommission diese Methode als weniger invasiv als Ausweiskontrollen.

Was ist das Problem bei diesen Alterskontrollen?

Fachleute für digitale Grundrechte sehen beide von der EU-Kommission beschriebenen Ansätze zur Alterskontrolle kritisch, also „age verification“ und „age estimation“. Je nach Ausgestaltung können diese Methoden Menschen ausschließen, die diese Hürden nicht überwinden können, etwa mangels Dokumenten oder mangels Webcam. Auch Eingriffe in Privatsphäre und Datenschutz sind denkbar, etwa wenn die erfassten Daten nicht anonymisiert werden. So sieht der aktuelle Kommissions-Entwurf der Alterskontroll-App nur Pseudonymisierung vor, keine Anonymisierung.

Weniger Bedenken gibt es aus Sicht von digitalen Grund- und Freiheitsrechten bei Methoden, in denen Menschen schlicht ihr eigenes Alter angeben („age declaration“). Der Dachverband von Organisationen für digitale Freiheitsrechte, EDRi, bringt das in einem Papier aus dem Jahr 2023 so auf den Punkt: „Außer bei Methoden zur Altersangabe („age declaration“) gefährdet Alterskontrolle die Privatsphäre, den Datenschutz und das Recht auf freie Meinungsäußerung – sowohl von Kindern als auch von Erwachsenen.“

Die EU-Kommission vertritt einen gegensätzlichen Standpunkt. In den Leitlinien heißt es ausdrücklich: Die Kommission betrachtet Altersangaben („age declaration“) eben „nicht als angemessene Methode der Alterskontrolle“. Das heißt, die Kommission empfiehlt ausdrücklich das, wovon EDRi abrät. Dahinter stehen auch verschiedene Auffassung davon, wie wirksam Alterskontrollen überhaupt sein können und welche Grundrechte Vorrang haben. Hier berichten wir mehr über die Abwägungen hinter verschiedenen Formen von Altersschranken im Netz.

Kritik an den geplanten Alterskontrollen kommt auch von Hannah Lichtenthäler, die für die gemeinnützige, digitalpolitische Organisation Superrr arbeitet. „Derzeit existierende Maßnahmen zur Altersfeststellung können wir aktuell aus technischer Sicht nicht empfehlen“, schreibt sie auf Anfrage von netzpolitik.org. „Klar ist, wenn Altersfeststellungsverfahren umgesetzt werden sollten, müssen sie die Grundprinzipien von Privacy by design, Safety by design, transparency by design sowie access(ibility) by design mindestens erfüllen.“

In Deutschland zuständig für die Durchsetzung des Jugendmedienschutz nach dem DSA ist die sogenannte KidD, die Abkürzung steht für „Stelle zur Durchsetzung von Kinderrechten in digitalen Diensten“. Deren Leiter Michael Terhörst begrüßt die Leitlinien; sie seien „Ergebnis eines intensiven Erarbeitungsprozesses“, schreibt er auf Anfrage. Gerade bei Alterskontrollen wären Terhörst zufolge jedoch konkretere Vorgaben zur Umsetzung wünschenswert, „damit Anbieter mehr Orientierung zu verhältnismäßigen Maßnahmen erhalten“.

 Spende an netzpolitik.org

Was verlangen die Leitlinien noch?

Neben Alterskontrollen beschreiben die Leitlinien eine Reihe von teils weitreichenden Maßnahmen, die Minderjährige im Netz besser schützen sollen. Je nach betroffener Plattform könnte das auf einen besonders eingeschränkten Kinder-Modus hinauslaufen.

Ein Bündel der Maßnahmen handelt davon, die verführerische Sogwirkung einzudämmen, die etwa Social-Media-Apps erzeugen können. Demnach sollen Dienste für Minderjährige nicht per Voreinstellung so gestaltet sein, dass man sich nur noch schwerlich davon lösen möchte. Also kein unendliches Scrollen in einem Feed; keine Likes, Kommentare oder Reposts von fremden Kontakten; keine Push-Benachrichtungen. Die oft auf maximale Verweildauer optimierten Empfehlungssysteme sollen entschärft werden, indem sie sich auf dem Alter angemessene Inhalte beschränken.

Bei jedem einzelnen Inhalt sollen Nutzer*innen außerdem einsehen können, aufgrund welcher Parameter er ihnen empfohlen wurde. Werkzeuge zur Beschränkung der Nutzungszeit sollen anpassbar und kinderfreundlich sein; auch Eltern oder Aufsichtspersonen sollen sie nutzen können.

Ein anderes Bündel von Maßnahmen dreht sich darum, minderjährige Nutzer*innen durch sichere Voreinstellungen gegen potenziell riskante Kontaktaufnahmen von Außen zu schützen. So sollen Inhalte von Minderjährigen nur für aktiv akzeptierte Kontakte sichtbar sein; und selbst diese Kontakte sollen keine Screenshots der Inhalte erstellen können. Meldemechanismen sollen zugänglich und kinderfreundlich sein; Anbieter sollen Meldungen von Minderjährigen mit Priorität bearbeiten und ihnen unverzüglich eine begründete Entscheidung vorlegen. Michael Terhörst von der Dienststelle KidD schreibt hierzu: „Wir begrüßen insbesondere auch den Ansatz, dass Minderjährige nicht leicht gefunden oder kontaktiert werden können.“

Anbieter „sehr großer Plattformen“ müssen übrigens nicht weniger tun, sondern mehr. Zum Beispiel sieht der DSA unter „Risikobewertung“ und „Risikominderung“ vor, dass sehr große Plattformen systemische Risiken für alle Nutzer*innen erfassen und wirksam angehen müssen, also auch für Erwachsene. Das betrifft etwa Inhaltsmoderation, Empfehlungssysteme oder Kennzeichnung von Falschinformationen.

Zementieren die Leitlinien Verbote oder schützen sie Freiheiten?

Es gibt Hinweise für beides. Die Leitlinien gehen durchaus darauf ein, wie wichtig digitale Freiheiten gerade für Minderjährige sind. In der Einleitung heben die Leitlinien hervor, dass Online-Plattformen für Minderjährige einen Reichtum von Bildungsinhalten bieten. Weiter heißt es: „Online-Plattformen können Minderjährigen auch die Möglichkeit bieten, mit anderen in Kontakt zu treten, die ähnliche Interessen haben. Dies kann Minderjährigen dabei helfen, soziale Kompetenzen, Selbstvertrauen und ein Gemeinschaftsgefühl zu entwickeln.“

Aus den Leitlinien geht klar hervor, dass es ein Spannungsfeld aus mehreren Grundrechten gibt. Die Formulierung „Privatsphäre, Sicherheit und Schutz für Minderjährige“ („privacy, safety, and security of minors“) wird beharrlich wiederholt – insgesamt 49 Mal. Auch das Recht auf Teilhabe wird berücksichtigt, immerhin bergen viele Maßnahmen das Risiko, Menschen unrechtmäßig von Inhalten auszuschließen.

Wie Alterskontrollen das Internet umkrempeln sollen

Konkret sollen Anbieter etwa sicherstellen, dass Methoden der Alterskontrolle für alle zugänglich sind, „unabhängig von Behinderung, Sprache, ethnischer Zugehörigkeit oder Zugehörigkeit zu einer Minderheit.“ Verarbeitet werden sollten alleine Datenpunkte, die sich auf das Alter beziehen und keine weiteren Daten, mit denen man Personen tracken könnte. Hinter die Altersschranke sollen nur Bereiche eines Angebots kommen, die für Minderjährige riskant sein können. Außerdem verweisen die Leitlinien darauf, dass Anbieter laut DSA keine Pflicht haben, allein zum Zweck der Alterskontrolle mehr Daten zu erheben, als sie es ohnehin tun würden.

Stellenweise richten die Leitlinien also durchaus den Blick auf Datenschutz und Teilhabe – und thematisieren damit die Bedenken der Kritiker*innen strenger Alterskontrollen.

Einen ernüchternden Realitätscheck erfahren diese Ziele jedoch, wenn man sich das von der EU-Kommission selbst vorgelegte Konzept für eine Alterskontroll-App anschaut. Wie wir im April berichtet haben, ist die geplante App eben nicht anonym, sondern pseudonym, und sie basiert auf Ausweispapieren, die nicht alle Menschen haben.

Das gibt einen Vorgeschmack darauf, in welche Richtung die Anwendung der Leitlinien verweist: Grundrechte wie Datenschutz und Teilhabe könnten zwar im Vorfeld ausführlich benannt werden; in der Praxis aber eine untergeordnete Rolle spielen.

Was passiert als nächstes?

Diese Leitlinien werden das Internet nicht sofort umkrempeln. Betroffene Anbieter müssen individuelle Lösungen entwickeln, um den Anforderungen gerecht zu werden. Gerade bei Maßnahmen, die viel Geld kosten oder gar strukturell Geschäftsmodelle angreifen, ist mit Widerstand zu rechnen. Welche Social-Media-Plattform wird schon bereitwillig auf Anreizsysteme verzichten, die Nutzer*innen immer wieder zurück in die App locken?

Viele Konflikte dürften sich erst vor Gericht klären lassen. Das zeigt schon die jüngste Geschichte des DSA. So sind selbst die in der EU meist besuchten Pornoseiten weit davon entfernt, Ausweiskontrollen für alle Nutzer*innen einzuführen – obwohl sie seit Jahren besonders im Fokus stehen. Vielmehr sind die Pornoanbieter noch damit beschäftigt, sich gegen ihre Einstufung als „sehr große Plattformen“ zu wehren.

Die Kommission möchte ihre fertigen Leitlinien direkt nach der noch laufenden öffentlichen Konsultation präsentieren, also schon im Sommer 2025. In Stein gemeißelt sind sie dann aber nicht. Sobald es erforderlich ist, will die Kommission die Leitlinien überprüfen – je nachdem, wie sie sich in der Praxis schlagen und welche technologischen, politischen und gesellschaftlichen Entwicklungen es gebe.

An zumindest einer Stelle weisen die Leitlinien über den Jugendmedienschutz hinaus. So schreibt die EU-Kommission, dass sie Anbieter von Online-Plattformen dazu „ermutigt“, die Maßnahmen zum Schutz aller Nutzer*innen anzuwenden, nicht nur für Minderjährige. Gerade beim Blick auf Datenschutz und Privatsphäre findet das Anklang bei Hannah Lichtenthäler von Superrr: „Profile von allen Menschen sollten auf privat eingestellt sein“, schreibt sie.

Read Entire Article