Medienrechtler warnt vor Social-Media-Verbot
Ein Totalverbot sozialer Medien für Minderjährige könnte dem Jugendschutz mehr schaden als nützen, warnt Dr. Stephan Dreyer aus Hamburg. Statt Altersgrenzen plädiert er für eine strengere Kontrolle der Plattformen.
Herr Dr. Dreyer, Sie nennen Social-Media-Verbote wie das in Australien, das für die deutsche Politik als Vorbild gilt, eine „rechtspolitische Scheinmaßnahme“. Was meinen Sie damit?
Genau das: Ein Social-Media-Verbot sieht nach entschlossenem Handeln aus, geht aber an der komplexen Realität digitaler Lebenswelten von Heranwachsenden vorbei. Es schafft mehr Probleme als es löst. Zum einen ist ein nationales Verbot in der EU, das die Online-Plattformen umsetzen sollen, wegen des Anwendungsvorrangs des Digital Services Act (DSA), also des EU-Gesetzes zur Regulierung digitaler Dienste, und des Herkunftslandprinzips nicht bindend. Zum anderen ist die Umgehung von nationalen Altersgrenzen trivial: Zwei bis drei Klicks für einen VPN-Tunnel und die Plattform sieht die Nutzerin oder den Nutzer in einem Land ohne Altersbeschränkungen.
Und schließlich entlässt eine Altersgrenze die Plattformen aus ihrer Verantwortung für altersgerechten Jugendschutz. Am Ende schwächen wir den Jugendschutz durch eine Altersgrenze.
In Deutschland gibt es in keinem Gesetz eine klare Definition von „Social Media“. Die Politik spricht bisher lediglich von Instagram und TikTok, was aber ist mit Gaming-Plattformen oder Messengerdiensten wie WhatsApp?
In Australien wurde die YouTube-Ausnahme wieder rückgängig gemacht, aber Dienste wie WhatsApp oder Telegram und ihre Kanäle und Gruppen mit über 100.000 Mitgliedern bleiben vom australischen Verbot unberührt. Hier zeigt sich die praktische Hürde: Es gibt bislang keine Legaldefinition von „Social Media“. Was soll nun unter ein Verbot fallen und was nicht? Was ist mit Diskussions- und Selbsthilfeforen, über die sich Jugendliche austauschen, was mit Gaming- und Chat-Plattformen wie Roblox oder Discord, die stark sozial geprägt sind? Es gibt zudem Angebote und Apps mit sozialen Funktionen, die sich speziell an Minderjährige richten und die den Kinderschutz ernst nehmen – für all diese Anbieter wäre eine pauschale Altersgrenze existenzgefährdend. Diese Abgrenzungsprobleme machen eine rechtssichere und vollziehbare Regelung extrem schwierig.
Ist ein Social-Media-Verbot überhaupt geeignet, das politisch gewünschte Ziel – gesundes Aufwachsen ohne schädliche Online-Einflüsse – zu erreichen?
Die Studienlage kann gerade keine gesicherten Kausalitäten zwischen der allgemeinen Social-Media-Nutzung und psychischen Erkrankungen nachweisen. Hier zeigt der Forschungsstand statistische Zusammenhänge, die sich eher auf bestimmte riskante Nutzungsformen und nicht auf die Nutzung insgesamt beziehen. Wenn aber schon unklar ist, ob diese allein oder mit ausschlaggebend für Beeinträchtigungen von Heranwachsenden ist, bleibt auch ungewiss, ob ein Verbot im Umkehrschluss messbare positive Effekte haben wird. Man könnte zwar mit dem Vorsorgeprinzip argumentieren, dass der Gesetzgeber bereits bei möglichen Entwicklungsrisiken einschreiten kann, aber selbst dann scheitert eine verfassungsrechtliche Prüfung an der Erforderlichkeit, weil mildere Mittel existieren: die Verpflichtung der Plattformen zur Gestaltung altersgerechter Angebote.
Wie hilfreich sind verpflichtende Sicherheitsstandards, bessere Jugendschutzfunktionen und Zeitlimits auf Plattformen?
Die Diskussion über eine Social-Media-Altersgrenze arbeitet sich sowohl an den schädlichen Inhalten als auch an den risikobehafteten Plattformfunktionen ab. Das ist genau die Richtung des DSA, die aus meiner Sicht der bessere Weg ist. Ist exzessive Nutzung das Problem, kann man den Dienst ab einer bestimmten Stundenzahl einschränken. Führen schönheitsbezogene Inhalte zu mentalen Problemen, kann man Algorithmen anpassen und vielfältigere Feeds bereitstellen. Man kann suchterzeugende Designelemente wie Endlos-Scrollen oder algorithmisch verstärkte Belohnungsmechanismen für Minderjährige einschränken, nächtliche Nutzung begrenzen, Push-Nachrichten altersabhängig regulieren.
Art. 28 DSA verpflichtet die Plattformen bereits jetzt, ein hohes Maß an Privatheit, Sicherheit und Schutz für Minderjährige zu gewährleisten und ihre Angebote altersangemessen zu gestalten. Diese milderen Mittel machen ein Totalverbot verfassungsrechtlich nicht erforderlich.Für gezieltere Maßnahmen – etwa die Einschränkung bestimmter Designelemente – ist auch die Forschungslage bereits belastbar genug. Man muss also differenzieren: Die Evidenz reicht für risikobasierte Regulierung, nicht aber für ein pauschales Verbot.
Verbot sozialer Medien: Skepsis bei Altersprüfung und Co.
Die Debatte um ein mögliches Verbot sozialer Medien für Minderjährige in Deutschland geht in die nächste Runde. Erst im Februar hat die SPD-Fraktion ein Impulspapier über ein Social-Media-Verbot für Kinder und Jugendliche unter 14 Jahren vorgelegt, das auf ein Stufenmodell mit einer dreistufigen, altersgestaffelten Regelung setzt und ein vollständiges Verbot von Social-Media-Plattformen für Kinder bis 14 Jahren vorsieht. Beim CDU-Bundesparteitag im Februar beschlossen die Delegierten mit breiter Mehrheit einen modifzierten Antrag für ein Social-Media-Verbot für Kinder und Jugendliche unter 14 Jahren plus verpflichtender Altersprüfung. Die ursprüngliche Initiative dazu kam aus Schleswig-Holstein, allerdings mit einer Altersgrenze von 16 Jahren. Führende Sozialdemokraten drängen nach dem Beschluss des CDU-Parteitags nun auf eine Entscheidung, die aber erst im Herbst kommen wird. Dann soll die Expertenkommission „Kinder- und Jugendschutz in der digitalen Welt“ ihre Empfehlungen vorlegen. Zweifel an den Vorschlägen, auch seitens der CSU, bestehen vor allem hinsichtlich juristischer und technischer Umsetzbarkeit bei der Altersverifikation.
Kinder und Jugendliche haben ein Recht auf Schutz, aber auch auf Teilhabe und Zugang zu Informationen. Wo liegt für Sie die richtige Balance?
Die Kinderrechtskonvention kennt drei gleichberechtigte Säulen: Schutz, Befähigung und Teilhabe. Kinder haben ein Recht auf Information, auf Meinungsäußerung, auf Zugang zu vielfältigen Medieninhalten und auch auf Spiel und Unterhaltung. Das unterscheidet diese Debatte fundamental von Verboten bei Alkohol oder Tabak, wo sich der Zugang zu den betroffenen Genussmitteln nicht auch auf so starke kinderrechtliche und menschenrechtliche Kategorien stützen lässt. Konkret: Ein 14-Jähriger sollte Instagram nutzen dürfen – aber in einer altersangemessen gestalteten Umgebung. Und wir sind uns einig, dass bei der altersgerechten Gestaltung noch viel zu tun ist. Etwa, dass besonders geschützte Jugendprofile, in denen Anreize zur Vielnutzung eingeschränkt sind, algorithmische Empfehlungen altersgerecht erfolgen, Kontaktfunktionen durch Fremde begrenzt sind und Eltern die Nutzung begleiten können, ohne sie zu verbieten. Mehrere Plattformen gehen mit solchen „Teen Accounts“ bereits in diese Richtung. Ein solches abgestuftes Konzept wahrt die Balance zwischen Schutz und Teilhabe besser als ein Totalverbot.
Für die Altersverifizierung sind konkrete Methoden verfügbar – von einfachen Selbstauskünften bis hin zu biometrischen Verfahren. Wie technisch machbar und rechtlich zuverlässig sind Sie aus Ihrer Sicht?
Es gibt viele Ansätze für Online-Altersüberprüfungen, darunter z.B. den Ausweis-Upload, Altersschätzungen anhand biometrischer Gesichtsanalysen, einer Stimmerkennung oder einer verhaltensbasierten Auswertung oder Wallet-basierte Nachweise, das sind elektronisch auf dem Smartphone hinterlegte Altersnachweise. Australien hat in einem umfassenden Bericht festgestellt, dass es hier nicht die eine gute Lösung gibt, man sollte mehrere parallel anbieten. Dabei hat jede Methode Schwachstellen oder Nachteile: sensible Ausweisdaten, biometrische Fehlerquoten, leichte Umgehung durch versierte Jugendliche mit elterlichen Dokumenten oder KI-Avataren.
Hinsichtlich Zuverlässigkeit, Datenschutz und Niedrigschwelligkeit wird man keine Lösung finden, die alle drei Aspekte vereint. Dazu tritt das grundrechtliche Problem: Eine flächendeckende Altersverifikation bedeutet, dass alle Nutzenden, auch die Erwachsenen, sich verifizieren müssen. Eine solche gesetzliche Überprüfung ist ein erheblicher Eingriff in Kommunikations- und Informationsfreiheiten. Die oft genannte EUDI-Wallet, die als datenschutzfreundliche Lösung ins Spiel kommt, steht noch ganz am Anfang, kann bisher nur Volljährigkeit nachweisen. Deswegen sollte die Implementation solcher Infrastrukturen vor der gesetzgeberischen Entscheidung eines Mindestalters möglichst zu Ende gedacht sein.
Wie stufen Sie die Umgehbarkeit eines Social-Media-Verbots durch VPN-Dienste und internationale Plattformen ein?
Mit wenigen Handgriffen ist auf jedem Smartphone ein kostenloser VPN-Tunnel eingerichtet, mit dem man seine regionale Herkunft verschleiern und einen Account ohne Altersprüfung anlegen kann. Aus einzelnen US-Bundesstaaten oder zuletzt Großbritannien wissen wir, dass die VPN-Nutzung nach dem Inkrafttreten von gesetzlichen Zugangshürden massiv ansteigt. Zudem gibt es weltweit unzählige Angebote zur sozialen Vernetzung, die sich nicht an nationale Verbote halten. Minderjährige könnten sich also Alternativen aussuchen, die sich europäischen Jugendschutzvorgaben vollständig entziehen. Es muss nicht gleich das Darknet sein, schon der Wechsel auf unreglementierte Plattformen außerhalb des DSA-Anwendungsbereichs würde das Schutzniveau erheblich verschlechtern.
Was genau gibt der DSA vor?
Den Rahmen für ein risikobasiertes Vorgehen. Risikobasiert bedeutet, dass wir nicht pauschal den Zugang für Jüngere verbieten, sondern die konkreten Risikoquellen in Form von Inhalten, Gestaltung und Funktionen auf Plattformen identifizieren und gezielt durch Regulierung adressieren. Art. 28 Abs. 1 verpflichtet Plattformen, ein hohes Maß an Privatheit, Sicherheit und Schutz für Minderjährige zu gewährleisten, durch Art. 34 und 35 werden die Plattformanbieter zur Durchführung systemischer Risikoanalysen und dem Vorhalten wirksamer Gegenmaßnahmen verpflichtet. Aus den Vorgaben folgt mit Blick auf die geltenden Kinderrechte eine Pflicht zur altersangemessenen Gestaltung, d.h. Inhalte und Funktionen müssen dem jeweiligen Alter der Nutzerinnen und Nutzer entsprechen. Die EU-Kommission hat jüngst im laufenden Verfahren gegen TikTok gezeigt, dass sie diesen Rahmen durchsetzen will. Nun ist der DSA ein relativ junges Gesetz und muss seine Wirkung erst entfalten. Aber die Verordnung bietet genau die differenzierten Instrumente, was eine Altersgrenze nicht kann.
Umfragen zeigen: Viele Eltern wünschen sich ein Social-Media-Verbot. Sie wiederum argumentieren: Ein Verbot nimmt Eltern ihre Erziehungsverantwortung ab. Was brauchen Erziehungsberechtigte Ihrer Meinung nach stattdessen konkret, um ihre Kinder bei der Social-Media-Nutzung verantwortungsvoll begleiten zu können?
Der Wunsch vieler Eltern nach einem Verbot ist nachvollziehbar, er spiegelt zum Teil auch ihre aktuelle Überforderung wider. Aber verfassungsrechtlich können Eltern ihre Erziehungspflichten nicht einfach dem Staat überantworten. Art. 6 Abs. 2 GG gibt ihnen das vorrangige Recht (und die Pflicht) auf die Erziehung ihrer Kinder, auch im Bereich der Mediennutzung. Ein Totalverbot würde ihren Gestaltungsspielraum erheblich einschränken: Selbst Eltern, die eine begleitete Nutzung bewusst gestatten wollen, könnten das nicht mehr.
Die Wächterfunktion, die dem Staat bei der elterlichen Übernahme der Erziehungsverantwortung zukommt, ist nicht darauf gerichtet, Eltern diese Verantwortung abzunehmen, sondern sie zielt ab auf die Wiederherstellung einer Situation, in der die Eltern wieder erziehen können. Was Eltern konkret brauchen, sind bessere Werkzeuge auf den Plattformen selbst, wie einfach zu bedienende Elternkontrollen, transparente Einstellungen, verständliche Informationen darüber, was auf der Plattform passiert. Daneben brauchen wir alle, gerade auch die Eltern, mehr Bildungs- und Beratungsangebote, die uns in die Lage versetzen, die Mediennutzung unserer Kinder gut zu begleiten statt zu kapitulieren. Am Ende komme ich wieder zu den altersangemessen gestalteten Plattformen: Wenn Eltern darauf vertrauen könnten, dass die Grundeinstellungen der Plattform und die Nutzung kindgerecht sind, wird Erziehung im digitalen Raum einfacher.
Wie erleben Sie das Thema in Ihrem persönlichen Umfeld bzw. was würden Sie Eltern als Argumente an die Hand geben, die zum Beispiel heute am Esstisch mit ihrer 12-jährigen Tochter oder ihrem 14-jährigen Sohn über deren Instagram-Nutzung diskutieren?
Wenn solche Diskussionen in der Familie überhaupt stattfinden, ist der wichtigste Schritt schon erreicht: Erfahrungsaustausch, Formulierung von Erwartungen und Wünschen, Aushandlung der elterlichen Begleitung. Das bedeutet nicht, dass diese Gespräche konfliktfrei sind, das wäre auch mit Blick auf viele andere Themen Heranwachsender überraschend. Aber bereits das Kümmern und Zuhören ist so wichtig für eine vertrauensvolle Beziehung, auch um sich als gute Ansprechpartnerin bzw. guter Ansprechpartner im Falle von Sorgen und Problemen in Stellung zu bringen.
Hier ist nicht das Ob der Social-Media-Nutzung die Frage, sondern das Wie: Eltern sollten mit den Kindern darübersprechen, was sie auf der Plattform erleben – nicht kontrollierend, sondern ehrlich interessiert. Sie sollten hier auch die Jugendschutzeinstellungen nutzen, die es bereits gibt. Zudem sind gemeinsam ausgehandelte Regeln hilfreich, z.B. keine Smartphone-Nutzung nachts oder während der Mahlzeiten. Das zeigt auch die Forschung: Eine positive elterliche Begleitung ist wirksamer als reine Restriktionen.
Angela Monecke
Social Media für Jugendliche: viel Diskussion, bislang wenig belastbare Evidenz
10- bis 17-Jährige in Deutschland verbringen nach einer Studie der DAK und des Universitätsklinikums Hamburg-Eppendorf durchschnittlich rund drei Stunden am Tag mit Social Media. Diese Zeit kann für andere entwicklungsrelevante Aktivitäten wie Schlaf oder sportliche Betätigung fehlen. So korreliert eine intensive, v. a. nächtliche Nutzung in Studien mit einer kürzeren Schlafdauer und schlechteren Schlafqualität. Kausale schädliche Effekte auf die Psyche lassen sich jedoch kaum nachweisen. Die Zusammenhänge zwischen Social-Media-Nutzung und depressiven Symptomen oder Ängsten sind meist schwach ausgeprägt. Bei „problematischer“ Nutzung mit Kontrollverlust sind sie zwar stärker, es bleibt aber unklar, ob die Fixierung auf soziale Medien Folge oder Ursache der seelischen Belastung ist.Geringe bis moderate Korrelationen finden sich zwischen der Nutzung bild- und videolastiger Netzwerke und der Unzufriedenheit mit dem eigenen Körper, vor allem bei gefährdeten Jugendlichen. In Interventionsstudien verbesserte eine vorübergehende Reduktion der Nutzung das Wohlbefinden leicht – diese Ergebnisse müssen aber noch breiter bestätigt werden.