Kinder- und Jugendschutz für NRW

AJS-Newsletter
News-Übersicht
Jugendschutzrecht / Medien/ 06.09.2019

Anbieter müssen Verantwortung übernehmen | Lagebericht „Technischer Jugendmedienschutz“ veröffentlicht

Mainz/Berlin, 05.09.2019. Kinder nutzen immer früher Social-Media-Dienste wie YouTube, Instagram oder Snapchat und sind dabei Risiken wie Mobbing, Belästigungen oder Gewalt ausgesetzt. Aktuelle Jugendschutzlösungen sind dort aber nahezu wirkungslos, da sie Inhalte nicht differenziert filtern können. Deshalb müssen auch moderne Technologien wie maschinelles Lernen zum Schutz der Jüngsten eingesetzt und fortentwickelt werden. Zu diesem Ergebnis kommt der aktuelle Lagebericht „Technischer Jugendmedienschutz“ von jugendschutz.net, dem gemeinsamen Kompetenzzentrum von Bund und Ländern für den Jugendschutz im Internet.

„Gerade in Social Media finden sich viele Beiträge, die sexuelle Gewalt zeigen, zum Hass anstacheln oder die persönliche Integrität von Kindern gefährden. Um die Jüngsten vor solchen Konfrontationen zu schützen, ist ein Konzept nötig, das auch auf moderne Mechanismen zur Inhaltserkennung setzt“, sagt Stefan Glaser, Leiter von jugendschutz.net. Eltern benötigen zudem Schutzoptionen, die auf Smartphones wirken und leicht zu konfigurieren sind.

„Es liegt in der Verantwortung der Anbieter, existierende Techniken endlich gewinnbringend auch für den Jugendmedienschutz einzusetzen“, fordert Dr. Wolfgang Kreißig, Vorsitzender der Kommission für Jugendmedienschutz (KJM). Um Schutz und Teilhabe junger Userinnen und User zu gewährleisten, brauche es altersdifferenzierte Systeme, die leicht verfügbar und unkompliziert nutzbar seien. In anderen Feldern wie z. B. zur Verhinderung von Urheberrechtsverletzungen würden moderne technische Ansätze längst erfolgreich angewendet.

Veraltete Erkennungsverfahren in den aktuellen Jugendschutzprogrammen führen bei Social-Media-Angeboten nicht zu zufriedenstellenden Ergebnissen. Moderne Methoden der automatischen Inhaltserkennung nutzen dagegen Techniken des maschinellen Lernens (KI – künstliche Intelligenz), um schnell große Mengen von Daten zu klassifizieren. jugendschutz.net prüfte 2017 und 2018 die automatische Erkennung von jugend­schutzrelevanten Inhalten. Getestet wurden ein bereits trainiertes, voll einsatzbereites System (Google Cloud Vision) und Programme, die das Training eines Erkennungsmechanismus ermöglichen (Facebook fastText und Google TensorFlow). Dabei waren Erkennungsquoten erzielt worden, die die Wirksamkeit gängiger Jugendschutzprogramme (ca. 80 % Trefferquote) mit vergleichsweise geringem Aufwand teilweise sogar übertreffen.

Der Bericht „Technischer Jugendmedienschutz. Zeitgemäße Entwicklung und zukunftsfähiges Schutzkonzept“ steht zum Download bereit unter: https://www.jugendschutz.net/pdf/Bericht_2019_Technischer_Jugendmedienschutz.pdf