
Apple hat angekündigt, in den neuesten Versionen von iOS 17, iPadOS 17 und macOS 14 standardmäßig die Kommunikationssicherheitsfunktion zu aktivieren, die Betriebssysteme nach Nacktbildern durchsucht. Diese Änderung betrifft Nutzerinnen und Nutzer unter 13 Jahren und wird noch in diesem Jahr weltweit eingeführt. Bisher mussten Eltern die Funktion manuell aktivieren, um ihre Kinder davor zu schützen, Nacktbilder in der Messaging-App zu sehen oder zu teilen.
Die als „Communication Safety“ bekannte Technologie arbeitet lokal und durchsucht nicht die iCloud. Sie wird auf das gesamte System ausgeweitet, einschließlich iMessage, Photo Picker, AirDrop, FaceTime Video Messaging und Anwendungen von Drittanbietern über eine API. Die Technologie kann sowohl Standbilder als auch Videos scannen.
Das ursprünglich geplante Scan-Tool für kinderpornografisches Material (CSAM) hat Apple nach heftiger öffentlicher Kritik nicht eingeführt. Stattdessen wird die „Communication Safety“-Funktion als Instrument zur Eindämmung der Verbreitung solchen Materials gesehen. Ziel von Apple ist es, durch das Scannen und Identifizieren von Nacktbildern „möglichen Kindesmissbrauch zu unterbinden, bevor er stattfinden kann“.
Die ursprüngliche Scan-Strategie von CSAM sah vor, dass Apple-Mitarbeiter bei etwa 30 Treffern informiert werden sollten. Diese Mitarbeiter hätten dann eine niedrig aufgelöste Version des betreffenden Bildmaterials entschlüsseln und sichten sollen. Beim Auffinden von CSAM-Material sollte die Kinderschutzorganisation NCMEC in den USA kontaktiert werden.
Mit der nun geplanten Vorgehensweise will Apple die Verbreitung von ungeeignetem Material reduzieren und gleichzeitig den Bedenken hinsichtlich der Privatsphäre der Nutzer Rechnung tragen.