Apple plant CSAM-Detektion, also machine-learning-gestütztes Erkennen von Material, das Kindesmissbrauch zeigt. heise online berichtet:
Apple will mit iPadOS 15 und iOS 15 eine neue Funktion einführen, mit der die Foto-Bibliothek von iPad- und iPhone-Nutzern auf kinderpornografisches Material („Child Sexual Abuse Material“, kurz CSAM) untersucht werden kann, um die Inhalte dann den zuständigen Behörden zu melden. Sicherheitsforscher fürchten, dass solche Funktionen zu weitreichend ist und künftig auch auf Ende-zu-Ende-verschlüsselte Inhalte auf den Geräten angewendet werden könnte – ein weiteres neues Feature nährt letztere Vermutung.
Ich hatte 2019 über Kindesmissbrauch online geschrieben in „Eine unlösbar erscheinende Herausforderung unserer Zeit“:
Im Internet können sich Nischen finden, ja, erst richtig entfalten. Interessierte finden Gleichgesinnte, die sie sonst nie gefunden hätten, weil das Internet geografische Grenzen aufhebt. Das gilt für alle Interessensgebiete. Auch und besonders für kriminelle.
Die Verbreitung digitaler Inhalte ist zusätzlich quasi kostenfrei. Die Verteilung einer weiteren Datei an ein Ziel ist mit keinen Kosten für den Verteilenden verbunden. Wir haben diesen Aspekt beim Thema Urheberrecht bis zum Ende durchgespielt.
Es gilt auch hier.
Ein Grund, der dazu beigetragen hat, dass ich meine frühere Position geändert habe, die für Verschlüsselung ohne Wenn und Aber war, war der im Text verlinkte Bericht in der New York Times. Darin wird unter anderem berichtet, wie die Community der Täter/innen sich online gegenseitig zu immer extremeren Taten an immer jüngeren Kindern anstacheln.
Ein übliche Nischen-Eskalation, wie wir sie online immer beobachten können, also auch hier.
Es ist in meinen Augen keine Option, in so eine Situation, einfachst zu benutzende E2E-verschlüsselte Kommunikation frei Haus allen Bürger/innen zur Verfügung zu stellen. Strafverfolgung ist so an dieser Stelle nicht mehr möglich. Also an der Stelle, an der die Kommunikationsmöglichkeiten explodieren.
Natürlich wird es immer Wege geben, völlig privat zu kommunizieren und etwa Medieninhalte auszutauschen. Aber die bequemen Tools, die auch nichttechnikaffine Menschen verstehen, sollten mit möglichst geringinvasiven Eingriffen kommen. Eben das, was Apple jetzt macht.
Natürlich ist das trotzdem problematisch, egal ob das auf dem Gerät oder in der Cloud stattfindet. Auch ein solcher Dienst auf dem Gerät lässt sich Richtung Überwachung (hallo Apple in China!) ausbauen, oder für Urheberrechtsmaximalismus nutzen (shut up and sit back down, GEMA).
Aber slippery, schmippery slope. Eine Communityeskalation gegenüber immer jüngeren Kindern. Das ist nicht schulternzuckend hinzunehmen. Das ist kein Preis, den wir bezahlen sollten, nur weil vielleicht irgendwann Dieter Gorny wieder gorniet.
Ich habe 2019 die von Apple geplante Lösung bereits umrissen. In „Eine unlösbar erscheinende Herausforderung unserer Zeit“ schrieb ich:
Datenschützer fordern eine lückenlose E2E-Verschlüsselung bei Messenger und co. Sie haben einen validen Punkt. Aber gleichzeitig argumentieren auch viele, etwas zynisch aber wahrscheinlich realistisch, dass Facebook viele Probleme für sich mit der Verschlüsselung löst, weil das Unternehmen nicht verantwortlich gemacht werden kann für Dinge, die es technisch nicht mehr sehen kann. Facebook braucht die Inhalte privater Kommunikation nicht für sein Werbeprodukt; gleichzeitig dürfte vielen nicht klar sein, wie viel Schreckliches auch im Messenger passiert bei der kaum vorstellbaren Größe der Nutzerschaft von Facebook.
Es gibt mittelfristig auf der Seite der Informationsarchitekturen zwei Dinge, die die Verbreitung von Missbrauchsmaterial zumindest eindämmen können:
- Machine Learning, das allerdings technisch noch Fortschritte machen muss, kann Material, das jemand teilen möchte, analysieren und kategorisieren. Das ist auch mit Ende-zu-Ende-Verschlüsselung vereinbar. Denn Machine Learning kann auch on-device, also direkt in der App auf dem Gerät, stattfinden. Identifiziertes Material kann dann wie ein Shadow-Ban „geteilt“ werden und gleichzeitig zum Review intern weitergeleitet werden. (Die neue Rekorder-App auf dem Google Pixel 4 transkripiert Audio sofort und on-device. Im Gegensatz zu urheberechtlich geschütztem Material ist Missbrauchsmaterial auch erkennbar ohne den jeweiligen konkreten rechtlichen Kontext. Sprich: Man sieht einem Bild oder Video nicht an, wer welche Rechte daran hält. Man sieht aber, was auf diesem Material zu sehen ist. Für Urheberrechtsverletzungen wird Machine Learning deshalb nie die Lösung sein. Für diesen Fall kann es dagegen eine effektive Gegenmassnahme unter weiteren(!) sein.))
Verschlüsselte Kommunikationsdienste, die als Distributionskanäle dienen, wie eben etwa Messenger-Apps, müssen, wenn sie Verschlüsselung anbieten, gleichzeitig die Massenverbreitung von Inhalten einschränken. (WhatsApp hat bereits Anfang des Jahres das Weiterleiten von 20 Empfängern auf fünf begrenzt. Der Hauptbeweggrund hier war das Verteilen von Falschinformationen. Die Überlegungen gehen offensichtlich in die gleiche Richtung: Reibung wieder einführen und damit Missbrauch zumindest etwas erschweren.)
That being said, jeder gesellschaftliche Widerstand gegen diese Entwicklung ist wichtig, weil es immer ein Austarieren zwischen zwei Extremen sein wird, ein klassischer gesellschaftlicher Kompromiss. Privatsphäre ist und bleibt wichtig. Alles, was da potenziell reinschneidet, egal wie wichtig, muss zwingend unter die Lupe genommen werden.
I was going to write about how Apple’s new detector for child sexual abuse material (CSAM), promoted under the umbrella of child protection and privacy, is a firm step towards prevalent surveillance and control, but many others have already written so good stuff. Some of it 👇
— Carmela Troncoso (@carmelatroncoso) August 6, 2021
Apple wiederum plant bereits den Ausbau seines neuen Services. heise online:
Tatsächlich scheint sich Greens Befürchtung zu bewahrheiten, was das Scannen verschlüsseltee Inhalte betrifft. Allerdings nur bei Apple-ID-Accounts von Kindern. Neben der neuen CSAM-Scanning-Funktion kündigt der iPhone-Hersteller nämlich neue „erweiterte Schutzmaßnahmen für Kinder“ an. Diese umfassen das lokale Scannen von Bildern in iMessage, „um Kinder und ihre Eltern zu warnen“, wenn die Kleinen „sexuell explizite Fotos erhalten oder versenden“.
Da merkt man wieder, wie so oft bei deren Produkten, dass das Top-Management bei Apple aus mittelalten Menschen besteht.
Der Kontrollverlust, wenn das was auf meinem Gerät passiert, nicht komplett von mir kontrolliert und gelenkt werden kann, ist ein gefährlicher Pfad für die Marke Apple. Apple selbst scheint aber nur die Brille von Eltern mit Kindern aufzusetzen, nicht die von Kindern oder Teenagern. Gefährlich für die Marke Apple
Das allerdings ist auch wieder ein Argument gegen slippery slope: Apple hat grundsätzlich ein sehr starkes Interesse daran, dass dieser Dienst nicht etwa auf Urheberrechtsaspekte und mehr ausgeweitet wird, weil das die eigenen Geräte unattraktiver machen würde.
(Randbemerkung: Nacktaufnahmen und ähnliches lassen sich btw. sehr viel einfacher mittels machine learning identifizieren als urheberrechtliches Material, weil man ersteres durch bloßes Anschauen erkennen kann, letzteres nicht einmal zwingend von den rechtmäßigen Rechteinhabern selbst korrekt erkannt wird.)
Dieser Text ist zuerst in Nexus 75: Zeitalter der Diskontinuitäten, Apples CSAM-Detektion, Europcar, DoorDash, Gorillas & Zukunft des deutschen Quick Commerce am 06.08.2021 erschienen. Nexus ist das Mitgliederangebot von neunetz.com mit zusätzlichem Newsletter, exklusiven Podcasts und einem Discord-Forum. Mehr Informationen zum Mitglieder-Angebot hier.
Schreibe einen Kommentar
Du musst angemeldet sein, um einen Kommentar abzugeben.