Apple scannt User-Uploads auf möglicherweise illegale Inhalte

Microsoft und andere machen es schon länger - Apple zieht jetzt offenbar nach: Mit einer Verschärfung seiner Datenschutzrichtlinie nimmt sich das kalifornische Unternehmen das Recht heraus, die Inhalte von User-Uploads zu scannen. Damit soll möglicherweise illegales Material aufgespürt werden, ausdrücklich verweist Apple hierbei auf Kindesmissbrauch.


Vorabprüfung und Vorabscannen
Unter dem Punkt "Wie wir personenbezogene Daten nutzen" schreibt Apple in der am 9. Mai 2019 aktualisierten Fassung der Datenschutzrichtlinie wörtlich: "Wir können Ihre personenbezogenen Daten auch für Zwecke der Account- und Netzwerksicherheit verwenden, in dem wir, zum Wohle all unserer Nutzer, unsere Dienstleistungen durch die Vorabprüfung und das Vorabscannen von hochgeladenen Inhalten auf potentiell illegales Material, wie etwa vor Inhalten im Zusammenhang mit der sexuellen Ausbeutung von Kindern, schützen." In der früheren Version hieß es lediglich, das Unternehmen könne die personenbezogenen Daten für Zwecke der Account- und Netzwerksicherheit verwenden, das umfasse auch den Schutz der Dienste zum Wohle aller Benutzer. Mit der neuen Datenschutzrichtlinie weitet der kalifornische Konzern also seine Rechte deutlich aus.

Setzt Apple ein Verfahren von Microsoft ein?
Aller Wahrscheinlichkeit nach geht es Apple darum, in erster Linie Fotos mit kinderpornographischen Darstellungen aufzuspüren. Microsoft praktiziert dies bei seinen Cloud-Diensten bereits seit Jahren, der Windows-Hersteller hat hierfür eigens eine Softwarelösung namens PhotoDNA entwickelt; diese wird auch von anderen Internet-Unternehmen wie Facebook und Google eingesetzt. Es steht also zu vermuten, dass Apple nunmehr ebenfalls dieses Verfahren anwendet. Es ist allerdings auch möglich, dass der iPhone-Hersteller bereits seit einiger Zeit User-Uploads scannt und jetzt lediglich die Datenschutzrichtlinie entsprechend aktualisiert hat.

Scans möglicherweise vor dem Upload
Wie und wo Apple die Inhalte scannt, ist nicht bekannt. Da das Unternehmen in seiner neuen Datenschutzrichtlinie den Begriff "Vorabprüfung" verwendet, findet die Auswertung der Inhalte möglicherweise bereits vor dem eigentlichen Upload und somit auf dem Endgerät selbst statt. Hierbei könnte etwa die Analysefunktion zum Einsatz kommen, die fester Bestandteil der Fotos-App von macOS und iOS ist. Für diese Annahme spricht, dass Apple zwar bekanntermaßen iCloud-Backups rekonstruieren, aber nicht auf andere Daten zugreifen kann, die mit Ende-zu-Ende-Verschlüsselung übertragen werden.

Kommentare

Nick131707.06.19 14:44
An sich ja nichts schlechtes, auch wenn scannen von eigenen Daten nie so cool ist. Mich würde nur interessieren was passiert wenn der Filter dann ausschlägt, wird der Upload untersagt, wird das Foto Video direkt gelöscht, wird es an Behörden weitergegeben.?
+1
seekFFM07.06.19 14:48
Hier sollten die Medien doch weiter nachforschen. Den Ansatz möchte ich nicht verurteilen, aber das Apple so alle meine E-Mails „scannt“ finde ich etwas bedenklich.
+5
aMacUser
aMacUser07.06.19 14:54
seekFFM Hast du schonmal in Mail eine Suche gemacht? Dann werden auch lokal auf deinem Computer alle deine Mails gescannt.
-12
deus-ex07.06.19 15:00
Spricht erst mal nix dagegen, aber welche Uploads sind hier gemeint? Bei iCloud Drive sag ich mal kann man die Daten ja vorher verschlüsseln.

Bei Auto-Uploads wie z.B. Fotostream find ich es etwas problematisch.
+3
MOTIVHIMMEL
MOTIVHIMMEL07.06.19 15:12
Ich bin da sehr zwiegespalten. Auf der einen Seite ist der Schutz anderer (insbesondere Kinder) natürlich wichtig. Doch das eine Software (KI) diese Prüfung übernimmt, dem stehe ich eben kritisch gegenüber.
Ich stelle mir einfach nur vor, das ich von meinem Kind ein Familienfoto besitze, wo das Kind eben textilfrei badet. Oder es gibt ja auch genug Nacktbadestellen wo sowohl Kinder als auch Eltern dann eben Textilfrei sind. Kann eine KI das wirklich differenzieren und korrekt agieren? Und vor allem ist mir die USA als recht prüde bekannt, sprich nach welchen Kriterien arbeitet so eine Software dann?
Und ausgehebelt wird das ganze ja wohl am Ende mit einer Verschlüsselung der Daten.
+7
verstaerker
verstaerker07.06.19 15:33
das ist doch genau das selbe wie ein upload Filter bei yt , gegen den so viele demonstrierten ...

auch wenn die Gründe sicher berechtigt sind... gut find ich das echt nicht.
Heute wird Kinderpornographie gefiltert, morgen Porno und übermorgen Alkoholkonsum?
+6
Ely
Ely07.06.19 15:44
Ich vermute, es findet eine Prüfung durch eine KI statt. Findet die was, wird sich ein Mensch die Sache ansehen. Und entscheiden, was weiter passiert.

Bleibt halt wirklich die bereits angesprochene Frage, was morgen rausfliegt. Kinderpornographie ist klar, das wird geblockt, aber was dann? Solange es nicht gegen Gesetze verstößt darf es eigentlich nicht gefiltert werden.
Wer gegen Datenschutz ist, weil er ja nichts zu verbergen habe, ist auch gegen Meinungsfreiheit, weil er ja nichts zu sagen habe.
+2
Konqi
Konqi07.06.19 15:56
Hinweis: Ende-zu-Ende-verschlüsselt ist im Gesamtangebot von iCloud nur ein kleiner Teil, das iCloud Drive nicht.
Ich finde der letzte Satz könnte dazu verleiten, dass man von einer weitgehenden Verschlüsselung ausgeht, die Apple nicht einsehen kann.
0
Phileas07.06.19 16:00
Mir würde eine graphische Übersicht helfen: Was ist Verschlüsselt, was nicht.
0
kwitchibo07.06.19 16:15
MOTIVHIMMEL
Ich bin da sehr zwiegespalten. Auf der einen Seite ist der Schutz anderer (insbesondere Kinder) natürlich wichtig. Doch das eine Software (KI) diese Prüfung übernimmt, dem stehe ich eben kritisch gegenüber.
Ich stelle mir einfach nur vor, das ich von meinem Kind ein Familienfoto besitze, wo das Kind eben textilfrei badet. Oder es gibt ja auch genug Nacktbadestellen wo sowohl Kinder als auch Eltern dann eben Textilfrei sind. Kann eine KI das wirklich differenzieren und korrekt agieren? Und vor allem ist mir die USA als recht prüde bekannt, sprich nach welchen Kriterien arbeitet so eine Software dann?
Und ausgehebelt wird das ganze ja wohl am Ende mit einer Verschlüsselung der Daten.

Wenn man sich mal unter dem im Beitrag genannten Link kurz durchliest, wie PhotoDNA funktioniert (sofern Apple das benutzt) dürften solche Familienfotos unproblematisch sein. Nur wenn das hochgeladene/gescannte Foto einem BEKANNTEN Foto entspricht, das also schonmal irgendwo aufgetauch ist, entsprechend eingestuft und mit einem Hash versehen wurde, dann schlägt die Software Alarm.
+3
Thehassle07.06.19 16:26
Na, dann hoffe ich mal das er mit den Badeurlaubsfotos unserer Kinder kenen Blödsinn macht... nachdenklich
+1
wolf2
wolf207.06.19 21:18
kwitchibo
Nur wenn das hochgeladene/gescannte Foto einem BEKANNTEN Foto entspricht, das also schonmal irgendwo aufgetauch ist, entsprechend eingestuft und mit einem Hash versehen wurde, dann schlägt die Software Alarm.
ich kann ja trotzdem der urheber sein, das ist ja dann die crux.
bei wikipedia das gleiche. wenn ich eine text, den ich schon mal im web veröffentlich habe, dort auflade, schlägt das system auch alarm, was natürlich bullshit ist.
die bürokraten haben schon längst gewonnen.
raunzen, mosern, sumpern, sudern, was uns bleibt.
0
Bigflitzer07.06.19 21:48
Man liest also ungestört den Inhalt meiner Laufwerke aus weil es möglich wäre das ich sie hochlade?
-1
kwitchibo08.06.19 09:32
wolf2
ich kann ja trotzdem der urheber sein, das ist ja dann die crux.
bei wikipedia das gleiche. wenn ich eine text, den ich schon mal im web veröffentlich habe, dort auflade, schlägt das system auch alarm, was natürlich bullshit ist.
die bürokraten haben schon längst gewonnen.

Es geht nicht um Urheberrecht, sondern hauptsächlich um Kindesmissbrauch und dessen Darstellungen. Selbst wenn es um Urheberrecht ginge, würde nicht alleine aufgrund einer Inhaltsgleichheit Alarm geschlagen werden. Es geht um Inhalte, die durch Menschen im Vorfeld bereits als strafbar eingestuft wurden. Das ist bei deinen Texten (hoffentlich ) nicht der Fall.

Nochmal: nehmen wir an, irgendwo auf der Welt wurde jemand festgenommen, der solche Darstellungen von Kindesmissbrauch im Besitz hatte. Dann wird für jedes dieser Fotos (ob es für Videos funktioniert, weiß ich nicht) ein einzigartiger digitaler Fingerabdruck (= Hash) erstellt und dieser in einer Datenbank gespeichert. Dabei ist übrigens unerheblich, wie die Dateien benannt sind, der Hashwert berrechnet sich aus dem Inhalt der Fotos und der ist immer gleich, egal wie oft die Datei kopiert oder umbenannt wurde. Wie das technisch genau funktioniert, kann ich dir nicht sagen.

Wenn jetzt jemand anderes irgendwo anders auf der Welt ebenso solche Fotos besitzt und versucht, diese rgendwo hochzuladen, fällt das beim Scan durch Programme wie PhotoDNA auf: diese erstellen erneut Hashes dieser Fotos und prüfen, ob irgendwas davon den Werten in der Datenbank entspricht. Ergibt dies einen Treffer ist klar: dieser Mensch besitzt/verbreitet strafbares Material, das bereits als solches eingestuft wurde.
0
kwitchibo08.06.19 09:32
Bigflitzer
Man liest also ungestört den Inhalt meiner Laufwerke aus weil es möglich wäre das ich sie hochlade?

Nein.
0
My2Cent08.06.19 16:12
Typischer Fall eines sogenannten Totschlag-Arguments.
Hier:
Offizielle Einführung der Zensur bei Apple.

Aber kann doch niemand dagegen sein, wenn Apple etwas gegen Kindesmissbrauch unternimmt ...
0
MacBlack
MacBlack08.06.19 22:34
Ich glaube, dass das Unbehagen vor allem daraus resultiert, dass keinerlei Transparenz darüber vorhanden ist, wer das Material (Fotos oder Videos) brandmarkt.

Was in der Vergangenheit ausschließlich ordentlichen Gerichten vorbehalten war (mit der Möglichkeit, dagegen Rechtsmittel einzulegen) passiert heute in diffusen Behörden – oder sogar durch Unternehmen.

Wenn ich dann von einer solchen Maßnahme betroffen bin, weiß ich gar nicht, wie ich dagegen vorgehen kann. So wir mir vor einigen Wochen passiert, als Emails von mir bei der Finanzverwaltung nicht zugestellt wurden. Grund: Ein Filter von IBMs X-Force-Exchange-Dienst. Verantwortlich wollte sich keiner fühlen: Die Finanzverwaltung verwies auf IBM und bei IBM konnte ich zu keinem Verantwortlichen durchdringen.

Das lässt einen hilflos zurück und senkt das Vertrauen in Firmen und Behörden auf Null.
+3
Hot Mac
Hot Mac09.06.19 08:40
Wird »iCloud Mail« nicht schon seit Jahren gescannt?

Mich würde es interessieren, wie die Auswertung des »Materials« vonstattengehen soll.
Bricht das SEK meine Haustür auf, wenn ich »Allahu akbar und Bombe« in die Betreffzeile einer E-Mail schreibe?

Ein guter Freund von mir ist Fahnder beim LKA.
Der muss sich den ganzen Tag Kinderpornos anschauen, um die Dreckschweine dingfest machen zu können.
Könntet Ihr das?!
Ich nicht!
Ich müsste wahrscheinlich permanent kotzen und bräuchte innerhalb kürzester Zeit eine neue Leber.

Grundsätzlich ist das Scannen von Bildmaterial – auf der Suche nach illegalen Inhalten – eine sehr gute Idee.
Die Frage ist halt: Wo fängt’s an und wo hört’s auf?
+4

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.

OK MacTechNews.de verwendet Cookies unter anderem für personalisierte Inhalte, Seitenanalyse und bei der Auslieferung von Google-Anzeigen. Dies war zwar schon immer so, auf Wunsch der EU muss nun jedoch explizit darauf hingewiesen werden. Durch Nutzung der Website erklären Sie sich damit einverstanden. Weitere Informationen