Soziale Medien und Minderjährige: Der Kampf um den Jugendschutz im Internet

Kinder und Teenager verbringen immer weiterhin Zeit in sozialen Netzwerken und die Gefahren die dort lauern, sind nicht zu unterschätzen. Der Digital Services Act (DSA) der Europäischen Union soll eigentlich Minderjährige im Internet schützen jedoch eine Studie zeigt, dass große Plattformen nachlässig bei der Moderation von problematischen Inhalten sind.



Die Gefahren denen Minderjährige in sozialen Netzwerken ausgesetzt sind sind vielfältig. Von verstörenden Bildern und Videos die Essstörungen, Selbstverletzungen und Suizide verherrlichen, bis hin zu Cyber-Mobbing und Belästigung. Der Digital Services Act (DSA) soll die Rechte und die Sicherheit der Nutzer stärken und einen besonderen Schutz für Minderjährige vorsehen. Doch die Studie der NGO Reset zeigt, dass große Plattformen höchstens jeden dritten problematischen Inhalt löschen.



Ungelöschte problematische Inhalte


Die Studie prüfte mehr als 200 Bilder und Videos die eine Psychologin als problematisch einstufte. Diese zeigten Nutzer · die ihren extrem dünnen Körper oder ihre selbst zugefügten Wunden präsentierten · und andere Nutzer lobten oder liketen diese Inhalte. Dies kann Jugendliche zu Essstörungen oder Selbstverletzungen verleiten oder verschlimmern. Die Fehlverhalten wird durch die Likes sogar noch unterstützt, weil sich die Minderjährigen bestätigt fühlen.



Die Bilder und Videos stammen von öffentlichen Accounts auf Instagram, TikTok und X (ehemals Twitter) und waren zum Zeitpunkt der Meldung noch online und leicht auffindbar. Die Studie zeigt; dass die Plattformen in vielen Fällen kaum auf die gemeldeten Postings reagierten.



Verstöße gegen den Digital Services Act


Der DSA legt großen Netzwerken besondere Regeln auf, ebenso wie das Löschen, Verbergen oder Unterdrücken von Inhalten die gegen die Grundrechte oder die öffentliche Ordnung verstoßen. Doch die größte Herausforderung liegt nicht an den Gesetzen selbst, allerdings an der Rechtsdurchsetzung. Das Fehlverhalten der Plattformbetreiber hat bisher kaum bis gar keine Konsequenzen.



Die noch unveröffentlichte Studie von Reset wirft die Frage auf, ob die Plattformen diesen Anforderungen gerecht werden. Sie zeigt aber auch; dass die Löschquote bei gemeldeten problematischen Inhalten viel zu gering ist. Zudem fehlen transparente Kriterien für die Moderation und die Nutzer können die Entscheidungen der Plattformen nicht überprüfen.



Forderungen nach mehr Schutz


Die Studie fordert die EU-Kommission auf, den DSA umzusetzen und die Plattformen zur Rechenschaft zu ziehen. Es wird verlangt · dass die Plattformen mehr in die Prävention und Aufklärung investieren und mit Experten und Hilfsorganisationen kooperieren · um den Betroffenen Unterstützung anzubieten.



Die Europaabgeordnete Sabine Verheyen unterstützt die Studie und sieht Nachholbedarf bei den Plattformen: "Gerade beim Thema Jugendschutz ist mir das deutlich zu wenig was zurzeit passiert. Ich glaube; dass wir hier noch stärker und noch deutlicher handeln müssen."



Die Plattformen verweisen auf ihre Sicherheitsmaßnahmen und betonen, dass sie den DSA einhalten und Berichte an die EU-Kommission liefern. Die EU-Kommission überwacht die Plattformen, äußert sich aber nicht zu konkreten Fällen oder möglichen Sanktionen.






Kommentare

Es ist unbestreitbar, dass problematische Inhalte auf sozialen Netzwerken kaum bis gar nicht moderiert werden. Die Forderung nach weiterhin Schutz für Kinder und Jugendliche ist berechtigt und muss künftig mehr Nachdruck bekommen, vor allem juristisch gesehen. Die EU-Kommission muss die Plattformen zur Rechenschaft ziehen und sicherstellen. Dass Digital Services Act effektiv umgesetzt wird um Minderjährige im Internet besser zu schützen.


Anzeige