iOS 17: Ehemalige Anti-Kinderporno-Technik warnt nun vor Dickpics

Apple hat eine Nachlass-Verwendung für seine zurückgezogene Technologie zur Erkennung von Bildern nackter Kinder auf iPhones gefunden: Das Mobile-OS wird Nutzer zukünftig auf Wunsch generell vor möglicherweise anstößigen Inhalten warnen.
Porno, Pornographie, Sex, Erotik, Youporn, Liebe, Porn, Pornos, Pornografie, XHamster, Xxx, Love, Erotikbild, Erotisch, Pinup, Erwachsenenunterhaltung
Wie das Unternehmen im Rahmen seiner Entwicklerkonferenz WWDC, auf der die neue Version iOS 17 vorgestellt wurde, mitteilte, soll das System seinen Nutzer dabei helfen, unerwünschte Nacktbilder und -videos zu vermeiden. Dabei dürfte es vor allem um Inhalte gehen, die über Messenger-Plattformen geschickt werden. Hier kommt es immer wieder vor, dass insbesondere Frauen plötzlich entsprechende Aufnahmen eines Chat-Kontaktes präsentiert bekommen. Aber auch in Gruppen, in denen alle möglichen Inhalte geteilt werden, sind pornografische Inhalte zuweilen ein Problem. Apple iOS 17iOS 17 - die Übersicht der neuen Features Zur Umsetzung der Warn-Funktion setzt Apple auf eine Bilderkennungs-KI, die in das lokale Betriebssystem integriert ist. Die Bildanalyse findet den Angaben zufolge komplett auf dem Gerät des Nutzers statt, Apple selbst komme also in keinem Fall in Kontakt mit dem Bildmaterial. Niemand muss daher befürchten, das private Aufnahmen ungewollt in der Cloud des Unternehmens landen.

Unerwünschte Technologie

Die zugrundeliegende Technologie war ursprünglich für einen ganz anderen Zweck gedacht: Apple wollte hier in sein iOS-System ein Verfahren integrieren, mit dem kinderpornografische Inhalte erkannt werden können, die in verschlüsselten Netzwerken ausgetauscht werden. Behörden und Plattform-Betreiber haben immerhin keinen Zugriff auf die geschützten Kommunikationskanäle.

Der Konzern zog die Technologie nach heftigen Diskussionen allerdings zurück. Denn eine solche Technik arbeitet nie fehlerfrei und bei der riesigen Menge ausgetauschter Nachrichten kommt es so schnell zu sehr vielen falsch-positiven Meldungen an die Ermittlungsbehörden. Die Folge ist dann eine völlige Überlastung der Polizei und eine nachhaltige Diskreditierung unschuldiger Nutzer.

Zusammenfassung
  • Apple integriert in iOS 17 Warn-Funktion vor anstößigen Inhalten.
  • Bilderkennungs-KI erkennt Inhalte ausschließlich auf dem Gerät des Nutzers.
  • Ursprünglich sollte Technologie kinderpornografische Inhalte erkennen.
  • Nach heftigen Diskussionen zurückgezogen: Zu viele falsch-positive Meldungen.
  • Polizei würde überlastet, unschuldige Nutzer diskreditiert.
  • Nutzer können unerwünschte Nacktbilder und -videos vermeiden.
  • Inhalte werden vor allem über Messenger-Plattformen geteilt.

Siehe auch:
Jetzt einen Kommentar schreiben


Alle Kommentare zu dieser News anzeigen
Tipp einsenden
❤ WinFuture unterstützen
Sie wollen online einkaufen? Dann nutzen Sie bitte einen der folgenden Links, um WinFuture zu unterstützen: Vielen Dank!