neunetz.com
CSAM-Detektion: Liegt Apple falsch?
Apple plant CSAM-Detektion, also machine-learning-gestütztes Erkennen von Material, das Kindesmissbrauch zeigt. heise online berichtet: Apple will mit iPadOS 15 und iOS 15 eine neue Funktion einführen, mit der die Foto-Bibliothek von iPad- und iPhone-Nutzern auf kinderpornografisches Material („