YouTube löschte acht Millionen Videos, vor allem wegen Sex und Spam

Google, Youtube, Videoplattform, Generation Bildquelle: Google
Die Videoplattform Google stand wie andere soziale Netzwerke in den vergangenen Jahren stark in der Kritik. Der Vorwurf lautete immer wieder, dass man zu oft das Auge zudrücken würde und extremistische Inhalte durchgehen lasse. Der zu Google gehörende Dienst gelobte Besserung und nun hat man ein erstes Zwischenfazit gezogen.
Google hat im vergangenen Dezember angekündigt, dass YouTube mehr Möglichkeiten bekommt, um Inhalte zu entfernen, die gegen die Richtlinien der Plattform verstoßen. Jetzt gibt das kalifornische Unternehmen ein erstes Update zu diesen Maßnahmen und stellte seinen ersten Bericht über die Durchsetzung der Community-Richtlinien von YouTube ("YouTube Community Guidelines Enforcement Report") vor.
YouTube-Transparenzbericht April 2018Löscheffizienz wird immer besser
Das Unternehmen schreibt aktuell, dass Maschinen eine wichtige Rolle bei der Erkennung und Löschung regelwidriger Inhalte spielten. Denn nur mit Hilfe automatisierter Systeme ist es möglich, die schiere Masse an Videos im Blick behalten zu können. Maschinelles Lernen ist dabei sowohl für Bereiche mit hohem Risiko und geringem Volumen (wie Gewaltextremismus) und in Bereichen mit hohem Volumen (etwa Spam) von großer Bedeutung.

Die 'Highlights' des aktuellen Berichts:


  • YouTube hat zwischen Oktober und Dezember 2017 über acht Millionen Videos entfernt. Bei den meisten dieser Clips handelte es sich hauptsächlich um Spam oder Personen, die versuchten, jugendgefährdende Inhalte hochzuladen.
  • 6,7 Millionen Videos wurden zuerst von Maschinen und nicht von Menschen zur Überprüfung gekennzeichnet ("geflaggt").
  • Von diesen 6,7 Millionen Videos wurden 76 Prozent entfernt, bevor sie ein einziges Mal angesehen wurden.

YouTube verweist mit einigem Stolz auf den Umstand, dass Anfang 2017 noch acht Prozent der wegen Gewaltextremismus gekennzeichneten und entfernten Videos nach weniger als zehn Views entfernt worden sind. Diese Rate konnte man seit der Einführung der Kennzeichnung durch maschinelles Lernen im Juni 2017 deutlich verbessern, mittlerweile hat mehr als die Hälfte der Videos, die wegen Gewaltextremismus entfernt werden, weniger als zehn Views.

Die meisten Videos werden allerdings wegen sexueller Inhalte gelöscht, hier ist sind die Daten zu den von Menschen markierten bzw. geflaggten Videos:

  • Sexuelle Inhalte: 30,1 Prozent
  • Spam oder Irreführend: 26,4 Prozent
  • Hass oder Beleidigungen: 15,6 Prozent
  • Gewalttätig oder abstoßend: 13,5 Prozent
  • Schädliche und gefährliche Handlungen: 7,6 Prozent
  • Kindesmissbrauch: 5,2 Prozent
  • Werben für Terrorismus: 1,6 Prozent
YouTube-Transparenzbericht April 2018 Google, Youtube, Videoplattform Google, Youtube, Videoplattform Google
Mehr zum Thema: YouTube
Diese Nachricht empfehlen
Kommentieren16
Jetzt einen Kommentar schreiben


Alle Kommentare zu dieser News anzeigen
Kommentar abgeben Netiquette beachten!
Einloggen

Jetzt als Amazon Blitzangebot

WinFuture auf YouTube

Tipp einsenden