Apple führt die Funktion zum Scannen von Nacktheit in Nachrichten nach Großbritannien und anderen Ländern ein

Apple hat letztes Jahr in den USA eine Sicherheitsfunktion eingeführt, die in der Nachrichten-App auf iPhones, iPads und Macs, die von Kindern unter 18 Jahren verwendet werden, nach sexuell expliziten Bildern sucht und sie und ihre Eltern warnt, wenn sie diese empfangen oder senden. Jetzt führt das Unternehmen diese Funktion für iOS-Benutzer in Großbritannien, Kanada, Australien und Neuseeland ein.

Der Guardian berichtete zuerst, dass in Großbritannien lebende Apple-Benutzer die Nacktheits-Scan-Funktion namens „ Communication Safety “ relativ bald in der Nachrichten-App sehen werden, obwohl das genaue Datum unbekannt ist. Es ist bereits im Rahmen des Beta-Updates für iOS 15.5 in Kanada live, aber es ist nicht bekannt, wann Benutzer in den anderen oben genannten Ländern die Funktion erhalten werden.

Screenshots von Apples neuer Funktion zum Scannen von Nacktheit.
Apfel

Um Ihr Gedächtnis aufzufrischen, wie die Funktion zum Scannen von Nacktheit funktioniert, können Eltern sie in den Bildschirmzeiteinstellungen für das Konto ihres Kindes einschalten. Jedes ein- oder ausgehende Nacktfoto wird automatisch verschwommen und Warnmeldungen werden eingeblendet, um dem Kind (oder Teenager) eine Anleitung zu geben, wie es Hilfe suchen kann, es zu Online-Sicherheitsressourcen weiterleitet und ihm versichert, dass es in Ordnung ist, wenn es das nicht sehen möchte Foto oder um das Gespräch fortzusetzen. Es wird ihnen auch empfohlen, einen vertrauenswürdigen Erwachsenen über das unangemessene Foto zu informieren und den Kontakt zu blockieren, der ihnen das Foto geschickt hat. Die Nachrichten-App löst einen Textaustausch mit den Eltern oder Erziehungsberechtigten des Kindes aus, wenn sie jünger als 13 Jahre sind.

Minderjährige, die in Großbritannien, Kanada, Australien und Neuseeland leben, sehen dieselben Warnungen und haben dieselben Möglichkeiten, mit einem vertrauenswürdigen Erwachsenen über die unaufgefordert erhaltenen Fotos zu sprechen. Sie werden auch zu Online-Sicherheitsressourcen weitergeleitet, die für ihre Region spezifisch sind.

Als das Feature im August angekündigt wurde, begrüßten Befürworter der Kindersicherheit Apples jüngste Bemühungen, den sexuellen Missbrauch von Kindern (CSA) zu bekämpfen und Kinder vor sexuellen Raubtieren zu schützen, aber Kritiker wiesen auf einige seiner Datenschutzmängel hin. Sie beklagten, dass die ursprüngliche Programmierung der Funktion, Eltern automatisch über Bilder mit Nacktheit zu informieren, unabhängig vom Alter des minderjährigen Benutzers, LGBTQ+-Kinder an Eltern weitergeben würde, die sie möglicherweise missbrauchen, aus ihren Häusern werfen oder anderweitig bestrafen könnten, und dass dies gescannt würde Fotos würden in iCloud Photos gespeichert, damit Apple-Moderatoren sie überprüfen und an das National Center for Missing and Exploited Children senden können. Die Kontroverse führte dazu, dass Apple die Veröffentlichung der Fotoscanfunktion sowie anderer Kindersicherheitsfunktionen auf November verzögerte.