Die Abgeordneten des Europäischen Parlaments fordern ehrgeizige EU-Maßnahmen zum Schutz von Minderjährigen im Internet, einschließlich einer EU-weiten Mindestaltersgrenze von 16 Jahren und Verboten der schädlichsten, süchtig machenden Praktiken. Am Mittwoch verabschiedete das Parlament einen nicht-legislativen Bericht mit 483 Stimmen dafür, 92 dagegen und 86 Enthaltungen, in dem es seine große Besorgnis über die physischen und psychischen Gesundheitsrisiken für Minderjährige im Netz ausdrückt und stärkeren Schutz vor manipulativen Strategien fordert, die Sucht fördern und die Fähigkeit von Kindern beeinträchtigen, sich konzentriert und gesund mit Online-Inhalten auseinanderzusetzen. Mindestaltersgrenze für soziale Medien Zur Unterstützung von Eltern beim Umgang mit der digitalen Präsenz ihrer Kinder und zur Sicherstellung altersgerechter Online-Nutzung schlägt das Parlament eine harmonisierte EU-weite digitale Mindestaltersgrenze von 16 Jahren für den Zugang zu sozialen Medien, Video-Sharing-Plattformen und KI-Begleitern vor, wobei 13- bis 16-Jährige mit Elterlicher Einwilligung Zugang erhalten könnten. Das Parlament unterstützt die Arbeit der Kommission an einer EU-Altersprüfungs-App und dem europäischen digitalen Identitäts-Wallet (eID) und betont, dass Altersnachweissysteme genau sein und die Privatsphäre von Minderjährigen wahren müssen. Solche Systeme entbinden die Plattformen nicht von ihrer Verantwortung, ihre Produkte sicher und altersgerecht durch Design zu gestalten, so die Abgeordneten. Zur besseren Einhaltung des EU-Digitaldienstegesetzes (DSA) und anderer relevanter Vorschriften schlagen die Abgeordneten vor, dass leitende Manager persönlich haftbar gemacht werden könnten bei schwerwiegender und anhaltender Nichtbefolgung, insbesondere in Bezug auf den Schutz Minderjähriger und die Altersprüfung. Kühne Maßnahmen des Parlaments Das Parlament fordert außerdem: ein Verbot der schädlichsten süchtig machenden Praktiken und das standardmäßige Deaktivieren anderer süchtig machender Funktionen für Minderjährige (darunter Endlos-Scrollen, Autoplay, Pull-to-Refresh, Belohnungsschleifen, schädliche Gamification); ein Verbot von Websites, die sich nicht an EU-Regeln halten; Maßnahmen zur Bekämpfung persuasiver Technologien wie zielgerichtete Werbung, Influencer-Marketing, süchtig machendes Design und Dark Patterns im Rahmen des geplanten Digital Fairness Act; ein Verbot von engagement-basierten Empfehlungssystemen für Minderjährige; Anwendung der DSA-Regeln auf Online-Video-Plattformen und ein Verbot von Lootboxen und anderen zufallsbasierten Spielmechaniken (In-App-Währungen, Glücksräder, Pay-to-Progress); Schutz von Minderjährigen vor kommerzieller Ausbeutung, einschließlich eines Verbots, Plattformen finanzielle Anreize für Kidfluencing (Kinder als Influencer) anzubieten; dringende Maßnahmen zur Bewältigung der ethischen und rechtlichen Herausforderungen durch generative KI-Werkzeuge, einschließlich Deepfakes, Begleit-Chatbots, KI-Agenten und KI-unterstützter Nacktbild-Apps (die nicht einvernehmliche manipulierte Bilder erzeugen). Zitat Die Berichterstatterin Christel Schaldemose (S&D, Dänemark) sagte während der Debatte: „Ich bin stolz auf dieses Parlament, dass wir gemeinsam für den Schutz von Minderjährigen online eintreten können. Zusammen mit einer starken, konsequenten Durchsetzung des Digitaldienstegesetzes werden diese Maßnahmen das Schutzniveau für Kinder dramatisch erhöhen. Wir ziehen endlich eine Grenze. Wir sagen den Plattformen klar: Ihre Dienste sind nicht für Kinder konzipiert. Und das Experiment hat hier ein Ende.“ Hintergrund Der Bericht bezieht sich auf Studien, wonach 97 % der jungen Menschen täglich online sind und 78 % der 13- bis 17-Jährigen ihre Geräte mindestens stündlich prüfen. Gleichzeitig zeigen etwa ein Viertel der Minderjährigen ein „problematisches“ oder „dysfunktionales“ Smartphone-Nutzungsverhalten, also Verhaltensmuster, die einer Sucht ähneln. Laut dem Eurobarometer 2025 halten über 90 % der Europäer Maßnahmen zum Schutz von Kindern online für dringend erforderlich, insbesondere im Hinblick auf die negativen Auswirkungen sozialer Medien auf die psychische Gesundheit (93 %), Cybermobbing (92 %) und die Notwendigkeit effektiver Wege zur Beschränkung des Zugangs zu altersunangemessenen Inhalten (92 %). Mitgliedstaaten beginnen bereits, Maßnahmen zu ergreifen und reagieren mit Regelungen wie Altersgrenzen und Prüfmechanismen.