Apple entfernt die meisten Erwähnungen von umstrittenen CSAM-Funktionen nach dem iOS 15.2-Update
Apple hat diese Woche iOS 15.2 mit einer Vielzahl neuer Funktionen veröffentlicht, darunter eine Kommunikationssicherheitsfunktion für die Nachrichten-App, die sich auf den Kinderschutz konzentriert. Das Unternehmen hat jedoch seine umstrittene Funktion zum Scannen von Material für sexuellen Missbrauch von Kindern in iCloud Photos nicht hinzugefügt und scheint alle Erwähnungen seiner Existenz gelöscht zu haben.
Zur Erinnerung: iOS 15.2 sollte ursprünglich eine Funktion zur Erkennung von Material für sexuellen Missbrauch von Kindern (CSAM) beinhalten. Das Update hätte eine Scanfunktion auf dem Gerät implementiert, die darauf abzielte, die iCloud-Fotobibliothek eines Benutzers nach CSAM-Material zu durchsuchen. Das Unternehmen stellte fest, dass dies für maximale Privatsphäre auf dem Gerät erfolgen würde. Datenschutzexperten wandten ein und stellten fest, dass das alleinige Konzept, die Fotobibliothek eines Benutzers nach verbotenem Material zu durchsuchen, an sich eine Datenschutzverletzung darstellte, die sich auf andere Materialien ausweiten könnte, sobald der Präzedenzfall geschaffen worden sei.

„Zuvor haben wir Pläne für Funktionen angekündigt, die dazu beitragen sollen, Kinder vor Raubtieren zu schützen, die Kommunikationsmittel verwenden, um sie zu rekrutieren und auszubeuten, und die Verbreitung von Material über sexuellen Missbrauch von Kindern zu begrenzen. Basierend auf dem Feedback von Kunden, Interessengruppen, Forschern und anderen haben wir beschlossen, uns in den kommenden Monaten zusätzliche Zeit zu nehmen, um Input zu sammeln und Verbesserungen vorzunehmen, bevor wir diese kritisch wichtigen Funktionen für die Kindersicherheit veröffentlichen“, sagte Apple in einer zuvor hinzugefügten Notiz seine ursprüngliche Kindersicherheitsseite .
Wie von MacRumors entdeckt , hat das Unternehmen dieses Segment seitdem von der Seite und jede Erwähnung der iCloud-Foto- Scanfunktion gelöscht. Wir haben uns diesbezüglich an Apple gewandt.
Apple hat auch einige geringfügige Änderungen an der Kommunikationssicherheit in seiner Nachrichtenfunktion vorgenommen. Anstatt die Eltern automatisch zu benachrichtigen, wenn ein Kind unter 18 Jahren ein Nacktbild über die Nachrichten-App anzeigen oder senden möchte, hat das Unternehmen nun die Benachrichtigungspflicht als Reaktion auf das Feedback von Experten aufgehoben.
Stattdessen werden jetzt alle unter 18 Jahren gewarnt, dass das Bild sensibles Material enthalten könnte, und eine Erklärung erhalten, was sensible Fotos sind und wie sie Schaden anrichten könnten, anstatt die Art des expliziten Fotos selbst anzugeben.