Hier können Sie die AI-generierte Audioversion dieses Artikels anhören.
Kinder sind Inhalten auf Social Media oft und lange ausgesetzt. Die EU und Österreich planen klare Altersgrenzen, technische Alterskontrollen und Verbote suchtfördernder Designs. Ziel ist ein Social Media Verbot, das den digitalen Raum kindgerechter macht. Das EU-Parlament fordert ein Mindestalter von 16 Jahren – davor soll es nur mit Zustimmung der Eltern möglich sein, einen Social Media-Account zu erstellen. In Österreich wird das Medienministerium bis Sommer eine Gesetzesvorschlag präsentieren. Hannes Heide, Abgeordneter im EU-Parlament, erklärt die Vorhaben in seinem Gastbeitrag.
Instagram, TikTok & Co. gehören für Kinder und Jugendliche längst zum Alltag. 97 Prozent der jungen Menschen sind täglich online, viele davon mehrere Stunden. Teilweise verbringen sie bis zu acht Stunden oder mehr auf Social Media.
Besonders auffällig ist TikTok: Schon 10 Prozent der 6- bis 7-Jährigen nutzen die App. Bei den 10- bis 11-Jährigen ist es etwa die Hälfte, bei den 12- bis 13-Jährigen sogar 71 Prozent. Das, obwohl TikTok selbst ein Mindestalter von 13 Jahren angibt.
Jedes 4. Kind nutzt sein Smartphone auf problematische Weise – mit Folgen für Konzentration und psychische Gesundheit.
In Kurzvideos, Fotos und Kommentaren stoßen Kinder oft auf Gewalt, Mobbing, enge Rollenbilder, extreme Inhalte oder Algorithmen, die gezielt Emotionen pushen. Dazu kommen Inhalte, die Selbstverletzung oder Essstörungen verherrlichen. Diese Dauerüberreizung kann ernste Folgen für die psychische und geistige Entwicklung haben.
Laut einer Studie zeigt jedes vierte Kind bereits eine problematische Smartphone-Nutzung. Die Folgen reichen von Depressionen über ein verzerrtes Körperbild bis zu Konzentrations- und Schlafproblemen. Viele verlieren auch den Anschluss in der Schule oder im Freundeskreis.
„Die Realität ist, dass Kinder sich in digitalen Räumen bewegen, die sie nicht ausreichend schützen. Es ist höchste Zeit für verschärfte Sicherheitsrichtlinien“, fordert der Europaabgeordnete Hannes Heide (SPÖ).

Social Media Verbot in Australien bis 16 Jahre
Im Europäischen Parlament arbeitet man aktuell an strengeren Regeln für Social Media. Eine Expertengruppe prüft derzeit im Auftrag von Kommissionspräsidentin Ursula von der Leyen, wie man den Schutz von Kindern verbessern kann.
Zum Jahreswechsel forderte das Europäische Parlament ein Social-Media-Verbot. Ein Orientierungspunkt ist Australien, wo einige Plattformen erst ab 16 Jahren erlaubt sind. Um sie zu nutzen, müssen User:innen ihr Alter verlässlich verifizieren.
Das Europäische Parlament fordert ein Verbot von Social Media für unter 13-Jährige. Das soll auch für Video-Plattformen wie YouTube und für sogenannte „KI-Begleiter“ gelten – also Apps wie Alexa, Siri oder ChatGPT, die Nähe und Freundschaft simulieren.
Alterskontrolle mit der „Kids Wallet“
Während Alterskontrollen in Australien anfangs leicht umgangen wurden, setzt Europa auf ein technisches System: die European Digital Identity Wallet. Diese digitale Brieftasche soll bis Ende 2026 in allen EU-Staaten eingeführt werden. Sie dient zur Altersbestätigung und zum sicheren Aufbewahren von Dokumenten wie Führerschein oder Zeugnissen.
Ist ein Kind zu jung, blockiert die „Kids Wallet“ automatisch den Zugang zu bestimmten Apps. „Diese App kann einen globalen Standard für die Altersbestätigung setzen, ohne dass persönliche Daten an Plattformen weitergegeben werden müssen“, erklärt Heide.
Wegen Werbung und Suchtpotenzial wurde TikTok Lite in der EU verboten
Ein wichtiger Schritt war bereits das Gesetz über digitale Dienste (DSA). Es erleichtert die Meldung illegaler Inhalte und verbietet gezielte Werbung an junge Menschen.
Wie wirksam der DSA sein kann, zeigt das Verbot von TikTok Lite in der EU. In dieser App wurden Nutzer mit Belohnungen wie Gutscheinen dafür bezahlt, Videos zu schauen oder Inhalte zu liken. Wegen ihres hohen Suchtpotenzials wurde die App gesperrt. Denn: „Alterskontrollen allein reichen nicht. Soziale Medien müssen altersgerecht gestaltet werden“, ergänzt Heide.
Konzerne sehen Kinder als Kunden – ihr Schutz ist für sie zweitrangig
Social-Media-Unternehmen verdienen Geld mit Aufmerksamkeit. Deshalb setzen sie gezielt auf Tricks, die abhängig machen: endloses Scrollen, automatisches Abspielen, Likes oder extreme Inhalte, die Emotionen triggern. Solche Designs sollen für Kinder und Jugendliche verboten werden.
Ähnliche Strategien finden sich auch in Online-Spielen. Dort werden ständig Zusatzkäufe angeboten, oft über In-App-Währungen. Das verschleiert, wie viel Geld tatsächlich ausgegeben wird – besonders für junge Menschen ein großes Problem.
Es geht nicht um Technik-Verbot, sondern um sichere Nutzung
Der Verbraucherschutzausschuss des Europäischen Parlaments empfiehlt daher, manipulative Designs und glücksspielähnliche Elemente in Games zu verbieten. Auch Influencer-Marketing und personalisierte Werbung sollen strenger geregelt werden.
Kinder und Jugendliche sollen keine Inhalte sehen, die gefährliche Diäten, unrealistische Schönheitsideale, Glücksspiel oder Sportwetten bewerben. Zusätzlich ist geplant, KI-generierte Inhalte klar zu kennzeichnen, um mehr Transparenz zu schaffen.
Ziel ist kein Technikverbot, sondern ein sicherer Rahmen. Digitale Bildung in der Schule bleibt dabei zentral. Gleichzeitig sind auch Eltern gefordert, Risiken anzusprechen und – notfalls gegen Protest – klare Grenzen zu setzen.
EU-Parlament fordert Mindestalter von 16 Jahren für Social Media-Nutzung – davor soll es nur mit Zustimmung der Eltern gehen
Das EU-Parlament hat eine Liste mit 10 Forderungen aufgestellt, die aktuell diskutiert werden:
- EU-weit geltendes Mindestalter von 16 Jahren für Social Media Zugang.
- 13 bis 16-Jährige: Zugang mit Zustimmung der Eltern
- EU-App zur Altersüberprüfung (digitale Brieftasche)
- Verbot von suchtfördernden Praktiken (Endlos-Scrollen, automatisches Abspielen,…)
- Verbot von beeinflussenden Technologien (gezielte Werbung, Influencer Marketing,…)
- Kinder vor kommerzieller Ausbeutung schützen – Verbot von Kidfluencern
- Verbot von Empfehlungssystemen für Minderjährige, die auf Profiling und Nutzerverhalten beruhen.
- Online-Videoplattformen und Spielfunktionen: Verbot von In-App Währungen, Lootboxen, Glücksrädern…
- Maßnahmen für KI-Tools: Alterslimit für Begleit-Chatbots, Kennzeichnung von Deepfakes, Verbot von KI-gestützten Nacktheitsapps
- Verbot von Plattformen, die Sicherheitsanforderungen nicht erfüllen; Führungskräfte von Medienunternehmen bei Verstößen persönlich haftbar machen.
In Österreich legt der Medienminister bis Sommer ein Gesetz vor
Die österreichische Regierung plant strengere Regeln zum Schutz von Kindern und Jugendlichen auf digitalen Plattformen. Auf ein konkretes Mindestalter will man sich erst in weiteren Gesprächen auf Regierungsebene festlegen.
Der geplante Gesetzesentwurf sieht empfindliche Strafen für Plattformbetreiber vor, die gegen die neuen Vorgaben verstoßen. Als Referenz dient der europäische Digital Services Act (DSA), der Sanktionen von bis zu sechs Prozent des weltweiten Jahresumsatzes ermöglicht. Im Fokus stehen insbesondere Plattformen, die Inhalte algorithmisch verbreiten oder gezielt verstärken. Dazu zählen etwa TikTok und Snapchat, aber auch andere digitale Chaträume, die Erwachsenen den direkten Kontakt mit Minderjährigen erlauben.
Hannes Heide ist seit 2019 Mitglied des Europäischen Parlaments und im Ausschuss für Kultur und Bildung tätig.



































