Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Apples Kehrtwende: Bildanalyse im Staatsauftrag ist Sicherheitsrisiko

Die australische eSafety-Kommissarin hat im November 2023 Entwürfe zweier Richtlinien veröffentlicht, die sich an IT-Firmen richten. Sie sehen vor, dass Anbieter von Cloud- und Direktnachrichtendiensten Kindesmissbrauchsdarstellungen und Terrorpropaganda automatisch erkennen und löschen sollten, wo immer dies technisch umsetzbar sei. Neben eindeutiger Meldemöglichkeiten problematischer Inhalte sollen Anbieter zudem Verhaltensmuster der Nutzer analysieren. IT-Unternehmen wurden um Stellungnahme gebeten. In seiner Antwort, die The Guardian vorliegt, weist Apple auf mögliche Einschränkungen für Sicherheit und Privatsphäre der Nutzer hin.


Zunächst fordere Apple eine eindeutige Definition dessen, was der Satz "wo immer technisch umsetzbar" (where technically feasible) umfasst. Zwar betonte die eSafety-Kommision an anderer Stelle, dass sie keine Hintertüren in Ende-zu-Ende-Verschlüsselungen fordern würde, aber würde dies in den Richtlinien selbst nicht klar formulieren. Damit sei diese Zusicherung wertlos. Apple empfehle für die Richtlinie ein klares Bekenntnis zur Ende-zu-Ende-Verschlüsselung. Ein weiterer Einspruch Apples: Die automatische Analyse von Nachrichten und Dateien würde dazu führen, dass Exekutivorgane den Rechtsweg umgehen könnten. Das hätte weitreichende globale Auswirkungen, so Apple: Andere Länder, denen die umfangreichen rechtsstaatlichen Schutzmechanismen Australiens fehlten, werden diese Mechanismen übernehmen und ausweiten (beispielsweise, um Oppositionelle oder Minderheiten zu unterdrücken).

Vor zweieinhalb Jahren klang das anders
Das Überraschende ist, dass Apple damit die Argumente übernimmt, die es vor gut zwei Jahren selbst als Kritik zu hören bekam: Im Vorlauf zu iOS 15 hatte Apple eine Funktion angekündigt, die umfangreichen Widerspruch ausgelöst hatte. Das Konzept: iPhones analysieren Medien nach bestimmten Identifikatoren, bevor sie via iCloud oder iMessage den Weg ins Netz finden. Auf diese Weise solle kinderpornografisches Material automatisch erkannt und ein Upload ins Netz verhindert werden. Apple versprach dies als Gewinn für die Sicherheits- und Privatsphäre, denn so könnten iMessage- und iCloud-Inhalte Ende-zu-Ende-verschlüsselt werden und gleichzeitig die Verbreitung krimineller Inhalte verhindert werden. Das kam bei vielen Menschen ganz anders an. Befürchtungen nach einer dauerhaften Überwachung auf dem eigenen Gerät wurden laut. Zudem mahnten Bürgerrechtsorganisationen die Intransparenz an: Was als Kinderpornografie erkannt würde, müssten staatliche Institutionen festlegen. Überprüfen kann (und will) das niemand. Autoritäre Regierungen könnten die Datenbanken verbotenen Materials mit zusätzlichen Identifikatoren füttern.

(Halbe) Rückwärtsrolle
Trotz umfangreichem Protest beharrte Apple anfangs auf dem Standpunkt und versuchte, die Maßnahme in einem positiven Licht darzustellen. Als der Gegenwind nicht abflaute, verschob Apple die Einführung der Bildanalyse zunächst, um sie dann Ende 2022 final abzukündigen. In der Stellungnahme auf die australische Richtlinie übernimmt Apple nun Argumente, die sich die Firma vor zwei Jahren selbst noch anhören musste. In einem Punkt ist Apple aber durchweg standhaft geblieben: Nutzerinhalte in iCloud und iMessage sollen verschlüsselt sein und bleiben.

Kommentare

Keine Kommentare vorhanden.

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.