iOS 17: Ehemalige Anti-Kinderporno-Technik warnt nun vor Dickpics
iOS 17 vorgestellt wurde, mitteilte, soll das System seinen Nutzer dabei helfen, unerwünschte Nacktbilder und -videos zu vermeiden. Dabei dürfte es vor allem um Inhalte gehen, die über Messenger-Plattformen geschickt werden. Hier kommt es immer wieder vor, dass insbesondere Frauen plötzlich entsprechende Aufnahmen eines Chat-Kontaktes präsentiert bekommen. Aber auch in Gruppen, in denen alle möglichen Inhalte geteilt werden, sind pornografische Inhalte zuweilen ein Problem.
iOS 17 - die Übersicht der neuen Features
Zur Umsetzung der Warn-Funktion setzt Apple auf eine Bilderkennungs-KI, die in das lokale Betriebssystem integriert ist. Die Bildanalyse findet den Angaben zufolge komplett auf dem Gerät des Nutzers statt, Apple selbst komme also in keinem Fall in Kontakt mit dem Bildmaterial. Niemand muss daher befürchten, das private Aufnahmen ungewollt in der Cloud des Unternehmens landen.
Der Konzern zog die Technologie nach heftigen Diskussionen allerdings zurück. Denn eine solche Technik arbeitet nie fehlerfrei und bei der riesigen Menge ausgetauschter Nachrichten kommt es so schnell zu sehr vielen falsch-positiven Meldungen an die Ermittlungsbehörden. Die Folge ist dann eine völlige Überlastung der Polizei und eine nachhaltige Diskreditierung unschuldiger Nutzer.
Siehe auch:
Wie das Unternehmen im Rahmen seiner Entwicklerkonferenz WWDC, auf der die neue Version Unerwünschte Technologie
Die zugrundeliegende Technologie war ursprünglich für einen ganz anderen Zweck gedacht: Apple wollte hier in sein iOS-System ein Verfahren integrieren, mit dem kinderpornografische Inhalte erkannt werden können, die in verschlüsselten Netzwerken ausgetauscht werden. Behörden und Plattform-Betreiber haben immerhin keinen Zugriff auf die geschützten Kommunikationskanäle.Der Konzern zog die Technologie nach heftigen Diskussionen allerdings zurück. Denn eine solche Technik arbeitet nie fehlerfrei und bei der riesigen Menge ausgetauschter Nachrichten kommt es so schnell zu sehr vielen falsch-positiven Meldungen an die Ermittlungsbehörden. Die Folge ist dann eine völlige Überlastung der Polizei und eine nachhaltige Diskreditierung unschuldiger Nutzer.
Zusammenfassung
- Apple integriert in iOS 17 Warn-Funktion vor anstößigen Inhalten.
- Bilderkennungs-KI erkennt Inhalte ausschließlich auf dem Gerät des Nutzers.
- Ursprünglich sollte Technologie kinderpornografische Inhalte erkennen.
- Nach heftigen Diskussionen zurückgezogen: Zu viele falsch-positive Meldungen.
- Polizei würde überlastet, unschuldige Nutzer diskreditiert.
- Nutzer können unerwünschte Nacktbilder und -videos vermeiden.
- Inhalte werden vor allem über Messenger-Plattformen geteilt.
Siehe auch:
Themen:
Beliebt im Preisvergleich
- Handys ohne Vertrag:
Neue iOS-Bilder
Videos zum Thema iOS
Beiträge im Forum
Weiterführende Links
Neue Nachrichten
- Aktuelle Technik-Blitzangebote von Amazon im Überblick
- FritzBox wird heute 20 Jahre: Geschichte von 8 MBit/s bis 10 GBit/s
- Microsoft kündigt zweites Event an: Surface mit KI & ARM-CPUs kommt
- Es werde Licht: Forscher wollen einige der ersten Sterne entdeckt haben
- PS5 Pro mit Power-Modus für CPU: Details zur stärkeren PlayStation 5
- Spieler live gehackt: Turnier gestoppt, Gerüchte kursieren, EA schweigt
- Letzte Chance: Garmin-Smartwatches zum Bestpreis bei Media Markt
❤ WinFuture unterstützen
Sie wollen online einkaufen?
Dann nutzen Sie bitte einen der folgenden Links,
um WinFuture zu unterstützen:
Vielen Dank!
Alle Kommentare zu dieser News anzeigen