Apple plant CSAM-Detektion, also machine-learning-gestütztes Erkennen von Material, das Kindesmissbrauch zeigt. heise online berichtet:
Apple will mit iPadOS 15 und iOS 15 eine neue Funktion einführen, mit der die Foto-Bibliothek von iPad- und iPhone-Nutzern auf kinderpornografisches Material („Child Sexual Abuse Material“, kurz CSAM) untersucht werden kann, um die Inhalte dann den zuständigen Behörden zu melden. Sicherheitsforscher fürchten, dass solche Funktionen zu weitreichend ist und künftig auch auf Ende-zu-Ende-verschlüsselte Inhalte auf den Geräten angewendet werden könnte – ein weiteres neues Feature nährt letztere Vermutung.
Ich hatte 2019 über Kindesmissbrauch online geschrieben in „Eine unlösbar erscheinende Herausforderung unserer Zeit“:
… WeiterlesenIm Internet können sich Nischen finden, ja, erst richtig entfalten.