Mit dem neuen Betriebssystem iOS 15 will Apple zukünftig die auf dem iPhone und iPad gespeicherten Fotos durchschauen.
Aus Datenschutzsicht ein riesiger Verstoß gegen die Privatsphäre und den Datenschutz.
Grundlos ist die neue Funktion nicht. Ab dem Update iOS 15, das im September erwartet wird, durchsucht Apple automatisch Fotos auf iPhones und iPads, die kinderpornographische Inhalte, oder auch CSAM (Child Sexual Abuse Material), zeigen.
Grundvorrausetzung, dass die Inhalte gescannt werden können ist, dass der iCloud-Foto-Upload aktiv sein muss. Ist das der Fall, scannt Apple die Bilder lokal ab und vergleicht sie mit einer Datenbank, welche die NCMEC (Us-Non Profit National Center for Missing an Exploited Children) zur Verfügung gestellt hat.
Das Ganze funktioniert über die KI-Funktion „Nero Hash“. Diese erkennt Inhalte und kann auch veränderte und vermeintlich unkenntlich gemachte Aufnahmen erkennen.
„Nero Hash“ schreibt dann sogenannte „Safety Voucher“ in die Bilder, die anschließend in die iCloud hochgeladen werden. Wird der Grenzwert eines hochgeladenen Inhaltes überschritten, kann Apple die „Safety Voucher“ entschlüsseln, die Aufnahmen durch einen Mitarbeiter prüfen lassen und die NCMEC informieren. Die NCMEC gibt die Informationen dann an die Behörden weiter.
Accounts mit CSAM Inhalten werden umgehend gelöscht. Wünschen Nutzer kein CSAM-Scanning, können sie iCloud Fotos einfach abschalten.
Kritiker äußern das Bedenken, dass die Funktion für andere Zwecke seitens verschiedener Regierungen missbraucht werden könnte. Besonders in Ländern wie China, in denen Datenschutz und Privatsphäre nahezu nicht existent sind, haben viele große Bedenken. Selbst WhatsApp Chef Will Cathcort bezeichnet die Funktion als „von Apple gebautes und betriebenes Überwachungssystem“.
Das CSAM-Scanning soll anfangs nur in den USA aktiv sein. Das System soll aber auch in andere Länder ausgeweitet werden, hierfür sei jedoch eine rechtliche Bewertung des jeweiligen Landes erforderlich.