Jugendschutz oder digitales Kontroll-Regime? Warum die Expertenkommission zum Social-Media-Verbot in die falsche Richtung kippen kann

Die Debatte klingt erst einmal harmlos. Viele Erwachsene sagen, sie wollten Kinder schützen. Das ist richtig und wichtig. Kinder und Jugendliche haben im Netz echte Risiken. Sie sehen Gewalt. Sie erleben Mobbing. Sie werden von Extremisten, Betrügern oder sexuellen Tätern angesprochen. Manche Plattformen arbeiten mit Sucht-Mechaniken. Sucht-Mechaniken sind Tricks im Design, die Menschen immer wieder zurückholen sollen. Dazu gehören endloses Scrollen, Likes, Push-Nachrichten und Belohnung durch Aufmerksamkeit. Die Sorgen sind also nicht erfunden. Die Weltgesundheitsorganisation hat 2024 gemeldet, dass problematische Social-Media-Nutzung bei Jugendlichen in Europa, Zentralasien und Kanada von 7 Prozent im Jahr 2018 auf 11 Prozent im Jahr 2022 gestiegen ist. Die Bundesregierung hat deshalb im September 2025 eine Expertenkommission eingesetzt, die Empfehlungen für den Kinder- und Jugendschutz in der digitalen Welt erarbeiten soll.

Genau hier beginnt aber das Problem. Denn man muss sehr genau schauen, wer da eigentlich am Tisch sitzt. Offiziell heißt es, die Kommission sei interdisziplinär besetzt. Interdisziplinär heißt: Menschen aus verschiedenen Fachbereichen arbeiten zusammen. Das stimmt formal. In der Praxis sitzt dort aber vor allem ein bestimmter Typ Fachwelt. Es sitzen dort viele Menschen aus Pädagogik, Medizin, Psychologie, Medienaufsicht, Jugendschutz-Verwaltung und Recht. Das ist nicht wertlos. Im Gegenteil. Diese Leute wissen viel über Entwicklung, Risiken und Schutz. Aber aus meiner Sicht und ganz allgemein aus Sicht von digitalen Grundrechten ist die Kommission auffällig schief besetzt. Denn fast nicht sichtbar vertreten sind Menschen aus IT-Sicherheit, Netzpolitik, Hacker-Kultur, Verschlüsselung, anonymer Kommunikation, Open Source oder aus der praktischen Abwehr von digitaler Überwachung. Genau diese Perspektiven wären aber zentral, sobald aus einem vermeintlich kleinen Verbot eine technische Kontroll-Infrastruktur für das ganze Netz werden kann.

Schon die Leitung zeigt diese Schieflage. Vorsitzende ist Nadine Schön, eine frühere CDU-Bundestagsabgeordnete. Co-Vorsitzender ist Olaf Köller vom Leibniz-Institut für die Pädagogik der Naturwissenschaften und Mathematik. Dazu kommen Fachleute aus Frühpädagogik, Familienforschung, Kinder- und Jugendmedizin, Medienpädagogik und Ethik. Das klingt breit. Es bedeutet aber auch: Diese Kommission schaut zuerst auf Schutz, Erziehung, Gesundheit und Regulierung. Sie schaut deutlich weniger auf Machtmissbrauch durch Technik, auf Überwachung, auf Sicherheitslücken und auf die Frage, wie man Kinder schützt, ohne zugleich Freiheitsrechte für alle kaputt zu machen. Das ist kein kleiner Unterschied. Es ist der Kern der Sache. Denn schlechte digitale Politik scheitert oft nicht an ihrer Absicht. Sie scheitert an ihrer Technik.

Besonders deutlich wird das bei den Mitgliedern aus dem klassischen Jugendmedienschutz-Apparat. Marc Jan Eumann ist Direktor der Medienanstalt Rheinland-Pfalz und war Vorsitzender der Kommission für Jugendmedienschutz. Sebastian Gutknecht leitet die Bundeszentrale für Kinder- und Jugendmedienschutz. Stefan Glaser leitet jugendschutz.net. Das sind alles Leute, die seit Jahren in Strukturen arbeiten, die auf Aufsicht, Regulierung, Eingriff und Durchsetzung ausgerichtet sind. Das ist aus ihrer Rolle heraus logisch. Aber genau darum ist es gefährlich, wenn fast nur diese Denkschule stark vertreten ist. Dann droht am Ende eine Antwort, die immer gleich aussieht: mehr Pflichten, mehr Kontrollen, mehr Altersprüfungen, mehr technische Schranken. Das kann im Einzelfall sinnvoll sein. Es kann aber auch in einen Zustand kippen, in dem jedes Problem mit Identitätsprüfung beantwortet wird. Dann wird aus Jugendschutz langsam ein Einfallstor für Überwachung.

Man muss fair bleiben. Die Kommission ist nicht nur schlecht besetzt. Es gibt auch Stimmen darin, die wichtig sind. Forschende zu Wohlbefinden, Ethik und Medienpädagogik können helfen, die Debatte vernünftiger zu machen. Auch der Hinweis, dass Kinder und Jugendliche geschützt werden müssen und Plattformen Verantwortung tragen, ist richtig. Es ist ebenfalls richtig, dass man Eltern mit dem Problem nicht allein lassen darf. Und es ist richtig, dass ein Staat nicht einfach zuschaut, wenn Konzerne mit psychologischem Druck und riskantem Design Geld verdienen. Aber gerade weil diese Ziele richtig sind, muss die Antwort sauber sein. Ein kaputtes Werkzeug wird nicht gut, nur weil das Ziel gut ist. Ein schlechtes Schloss macht ein Haus nicht sicher. Manchmal macht es das Haus sogar gefährlicher, weil alle denselben Schlüssel haben wollen.

Der größte Denkfehler in der ganzen Debatte ist deshalb die scheinbar einfache Frage: „Bist du für ein Social-Media-Verbot für Kinder und Jugendliche?“ Diese Frage ist politisch bequem. Aber sie ist technisch und rechtlich ungenau. Denn ein solches Verbot fällt nicht vom Himmel. Es muss durchgesetzt werden. Und genau hier kommt die Wahrheit ans Licht. Wer ein Verbot will, braucht fast immer Altersverifikation. Altersverifikation heißt: Ein System soll prüfen, wie alt du bist. Das kann mit Ausweis, mit Bankdaten, mit Gesichtsschätzung, mit einer App, mit einer digitalen Brieftasche oder mit anderen Nachweisen passieren. Dann geht es plötzlich nicht mehr nur um Kinder. Dann geht es um alle. Denn um Kinder auszuschließen, muss am Ende jede Person im Netz beweisen können, dass sie alt genug ist. Die ehrliche Frage lautet also nicht: „Willst du ein Verbot für Kinder?“ Die ehrliche Frage lautet: „Willst du eine Ausweispflicht oder ein Alterskontroll-System für weite Teile des Internets?“ Genau das ist der Punkt, vor dem Datenschützer und Netzpolitiker seit Monaten warnen.

Das Risiko dabei ist gewaltig. Erstens entsteht ein Zwang zur Identifizierung. Identifizierung heißt: Ein Dienst kann dich einer Person zuordnen. Selbst wenn ein System behauptet, es speichere nur „über 16“ oder „über 18“, braucht es vorher eine Stelle, die dein Alter prüft. Diese Stellen werden interessant für Unternehmen, Kriminelle und Behörden. Zweitens entstehen neue Datensammlungen. Datensammlungen sind immer ein Angriffsziel. Was gespeichert wird, kann gestohlen, verkauft, missbraucht oder später für neue Zwecke genutzt werden. Drittens droht ein Chilling Effect. Das ist ein englischer Begriff. Er bedeutet, dass Menschen sich aus Angst anders verhalten. Wer bei jedem sensiblen Aufruf im Netz erst Alter und Identität beweisen muss, sucht seltener nach Hilfe. Das trifft Jugendliche besonders hart. Wer etwa nach queerem Leben, Sexualität, psychischen Krisen, Sucht, Gewalt in der Familie oder Schwangerschaft sucht, braucht Schutz und Anonymität. Wenn vor solchen Seiten eine Hürde steht, kann genau die Hilfe ausfallen, die Leben rettet. Viertens drohen Fehler und Diskriminierung. Gesichtsschätzung kann danebenliegen. Menschen werden falsch eingeordnet. Jüngere sehen älter aus. Ältere sehen jünger aus. Menschen mit Behinderung, mit bestimmten Gesichtsmerkmalen oder mit wenig Technikzugang können benachteiligt werden. Fünftens droht Zweckausweitung. Zweckausweitung heißt: Ein System, das heute nur für Jugendschutz gebaut wird, wird morgen für andere Dinge benutzt. So etwas passiert in der Politik ständig. Was einmal da ist, wird später für Urheberrecht, Glücksspiel, Pornografie, Desinformation oder politische Kontrolle mitgedacht. Dann ist aus einer Schranke für Kinder eine Kontroll-Infrastruktur für alle geworden.

Oft wird nun entgegnet, moderne Altersnachweise könnten datensparsam sein. Datensparsam heißt: Es sollen möglichst wenige Daten anfallen. Die EU-Kommission wirbt tatsächlich für Verfahren, bei denen nur nachgewiesen wird, dass jemand über einer Altersgrenze liegt, ohne gleich den ganzen Ausweis offenzulegen. Das ist besser als die plumpe Kopie des Personalausweises. Man muss das anerkennen. Aber auch ein besseres System löst nicht alle Probleme. Es bleibt eine Kontroll-Infrastruktur. Es bleibt ein Zugangstor, das verwaltet, angegriffen und politisch erweitert werden kann. Es bleibt ein Instrument, das Menschen ohne passende Geräte, ohne digitale Kompetenz oder ohne offizielle Dokumente ausschließen kann. Und es bleibt ein System, das die Normalität verschiebt. Aus freier Nutzung wird erlaubte Nutzung nach Prüfung. Aus offenem Netz wird Netz unter Vorbehalt. Das ist kein kleiner kultureller Schritt. Das verändert das Internet selbst.

Hinzu kommt noch ein weiterer Punkt, der mir in dieser Kommission nicht stark genug verankert scheint: Jugendliche selbst sind nicht als Mitglieder am Tisch sichtbar. Die Bundesregierung spricht zwar von aktiver Jugendbeteiligung. Aber Beteiligung ist nicht dasselbe wie Macht. Es ist ein Unterschied, ob junge Menschen einmal angehört werden oder ob sie mitentscheiden. Gerade in einer Debatte über ihre Kommunikation, ihre Teilhabe und ihren Alltag ist das ein schwerer Mangel. Erwachsene reden wieder über junge Menschen, statt sie gleichberechtigt einzubeziehen. Das ist alt. Und es ist meistens ein Zeichen dafür, dass man Kontrolle für Fürsorge hält.

Die öffentliche Stimmung ist außerdem viel komplizierter, als manche Schlagzeilen suggerieren. Eine repräsentative Befragung, über die im März 2026 berichtet wurde, ergab, dass 77 Prozent ein Verbot für Jugendliche bis 16 Jahre ablehnen, während 71 Prozent ein Verbot für Kinder bis 12 Jahre befürworten. Andere Befragungen zeigen ebenfalls, dass viele Eltern und Kinder eher Einschränkungen, bessere Begleitung, mehr Medienkompetenz und strengere Regeln für Plattformen wollen als ein pauschales Verbot. Das ist ein wichtiger Unterschied. Denn Menschen sagen oft Ja, wenn man eine abstrakte Schutzfrage stellt. Sobald man aber erklärt, was die technische Folge ist, wird die Sache komplizierter. Viele finden die Idee „Kinder schützen“ gut. Sehr viel weniger würden offen sagen: „Ich will, dass sich Menschen im Netz künftig überall ausweisen oder ihr Alter technisch nachweisen müssen.“ Genau darum sind solche Umfragen mit Vorsicht zu lesen. Die Frage baut schon eine moralische Schieflage ein. Wer will schon offen gegen Kinderschutz sein? Aber das ist ein Trick der Sprache. Man fragt nach dem guten Ziel und versteckt den problematischen Weg. Das ist ungefähr so, als würde man fragen, ob man Gewalt an Schulen verhindern will, ohne dazuzusagen, dass dafür jede Schülerin und jeder Schüler rund um die Uhr und auch auf dem Schulklo gefilmt werden soll. Die zweite Hälfte der Wahrheit wird einfach weggelassen.

Darum muss man am Ende sehr klar sein. Die Plattformen haben ein massives Problem geschaffen. Sie verdienen Geld mit Aufmerksamkeit, mit Druck, mit algorithmischer Sortierung und oft auch mit Konflikt. Algorithmen sind Rechenregeln, die entscheiden, was du zu sehen bekommst. Kinder und Jugendliche brauchen davor Schutz. Aber dieser Schutz darf nicht in die nächste Sackgasse führen. Wer Social Media für Minderjährige verbieten will, ohne über Alterskontrolle für alle zu reden, verkauft der Öffentlichkeit nur die halbe Wahrheit. Wer ein scheinbar kleines Verbot fordert, muss ehrlich sagen, dass dafür sehr wahrscheinlich eine neue Form digitaler Ausweispflicht nötig wird. Und wer diese Pflicht baut, baut nicht nur ein Werkzeug gegen TikTok oder Instagram. Er baut ein Werkzeug, das in falschen Händen für Zensur, Überwachung, Ausgrenzung und Angst genutzt werden kann. Aus meiner Sicht ist genau das der entscheidende Punkt. Ein freies Netz schützt man nicht, indem man es in einen Kontrollraum verwandelt. Kinder brauchen Sicherheit. Aber sie brauchen auch Freiheitsrechte. Und wir alle sollten sehr vorsichtig sein, wenn uns Politiker:innen eine einfache Lösung für ein kompliziertes Problem versprechen. Besonders dann, wenn diese Lösung am Ende bedeutet, dass aus Jugendschutz ein Kontrollsystem für das ganze Internet wird.

Quellenangabe:

Bundesregierung zur Einsetzung und Besetzung der Expertenkommission vom 4. September 2025.

Europäischer Datenschutzausschuss zur Age Assurance vom 12. Februar 2025.

BfDI zu datenschutzrechtlichen Anforderungen an Altersverifikationssysteme vom 1. September 2025.

EU-Kommission zum Age-Verification-Blueprint vom 14. Juli 2025.

WHO Europa zu problematischer Social-Media-Nutzung bei Jugendlichen vom 25. September 2024.

Berichte und Auswertungen zur öffentlichen Meinung bei ZEIT Online vom 4. März 2026 und netzpolitik.org vom 15. Januar 2026.

Weitere Hintergrundquellen zu Mitgliedern aus Medienaufsicht und Jugendmedienschutz: Medienanstalt Rheinland-Pfalz, Bundeszentrale für Kinder- und Jugendmedienschutz und jugendschutz.net.