Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Apples neue Maßnahmen: Foto-Analyse für iCloud, Foto-Filter in iMessage, angepasste Suche

Apple hat ein ganzes Bündel an Maßnahmen bekannt gegeben, wie einerseits Kinder vor möglichen Gefahren des Internets geschützt als auch Handel mit illegalem Bildmaterial eingegrenzt werden sollen. Gleich vorweg: Entgegen des gestrigen Berichts ging Apple allerdings nicht den weitreichenden Schritt, die lokale Camera Roll selbst dann zu scannen, wenn kein Cloud-Upload stattfinden soll. Demnach erfolgt zwar tatsächlich ein lokaler "On Device"-Abgleich mit entsprechenden Hashes, allerdings nur vor dem Upload auf iCloud. Im Kampf gegen "CSAM" ("Child Sexual Abuse Material") gleichen Algorithmen bekanntes, illegales Bildmaterial mit Fotos in der iCloud Media Library ab. Folgendermaßen stellt Apple den Ablauf dar:


Aus Apples technischer Dokumentation

Damit will Apple den Privatsphäre-Gedanken beibehalten und ausdrücklich nicht permanent die Nutzerdaten auf den Servern scannen müssen. Wenn Fotos in der Library mit Bildern aus der offiziellen Datenbank übereinstimmen, speichert das System die Ergebnisse in einem "Safety Voucher". Als Technologie kommt das sogenannte "Threshold Sharing" zum Einsatz, um sicherzustellen, dass sich die Ergebnisse nicht auslesen lasen, bevor eindeutige Schwellen überschritten sind. Wie es in Apples Vorwort heißt: Man erlange keinerlei Kenntnis über solche Bilder, die nicht als "kritisch genug" eingestuft sind.


Bei welchen Werten diese Thresholds angesetzt sind, nennt Apple nicht – verweist aber auf die hohe Zuverlässigkeit. Die Fehlerquote liege bei "eins zu einer Billion" pro Jahr. Geht das System eindeutig davon aus, bekanntes kinderpornografisches Material entdeckt zu haben, kann sich Apple nach Prüfung der ermittelten Werte dazu entscheiden, denn Account zu sperren und Meldung an das "National Center for Missing and Exploited Children" zu erstatten. Bis es aber zur Klassifizierung von "eindeutig" kommt, müssen viele Indikatoren zutreffen. Unklarheit bedeutet dabei stets, dass die Bilder als unkritisch gelten.

Foto-Filter in iMessage für explizite Inhalte
Wer seinen Nachwuchs im Familienzugang der iCloud angelegt hat, kann den Schutz vor bestimmtem Bildmaterial aktivieren. Erkennt der iMessage-Filter anschließend, dass gerade "expliziter Content" an die jeweilige Person geschickt wurde, zeigt der Messenger diesen nur stark verschwommen an. Wer das Foto dennoch öffnen möchte, erhält eine Warnung, warum es sich um unerwünschte Bilder handelt und weswegen die Schutzfunktion eingriff. Soll dann immer noch Zugriff darauf stattfinden, verhindert iMessage dies nicht, weist aber darauf hin, dass eine Meldung an die Eltern erfolgt – "um sicherzustellen, dass alles in Ordnung ist". Selbige Warnung erscheint auch, wenn Sprösslinge versuchen, ihrerseits explizite Inhalte zu versenden.


Siri und Suche: Maßnahmen gegen CSAM
Wenn Siri erkennt, dass Nutzer Kindesmissbrauch melden möchten, gibt es direkte Hilfestellung, an wen man sich dazu wenden kann. Außerdem fangen Siri und Websuche direkt Anfragen ab, die auf illegales Bildmaterial abzielen. Stattdessen gibt es eine Erklärung, warum der jeweilige Content gefährlich und problematisch sein kann – inklusive Verweise auf Angebote, die Unterstützung bieten.

Kommentare

Leselump06.08.21 10:28
Das geht eindeutig zu weit, privat ist privat! Ein Generalverdacht an alle Apple User auszusprechen ist ein Schlag unter die Gürtellinie und wird hoffentlich dementsprechende Konsequenzen haben für den Hersteller.
Das war´s dann mit Handyfotos und (Apple?) Smartphones, werde lieber wieder die gute alte DSLR mitschleppen und das gute alte 6310 auspacken.
-4
Busterdick06.08.21 10:33
Sehr guter Schritt! Kinder sind das höchste Gut, das unverletzlichste, das schützenswerteste. Diesen perversen Menschen muß klar gezeigt werden das sie der Abschaum der Gesellschaft sind. Bitte am liebsten direkt Zwangskastration. Meine Wut für solche Individuen kennt keine Grenzen und hier werden bei mir niedere Instinkte geweckt.
-15
Kovu
Kovu06.08.21 10:45
Ich bin ernsthaft froh, welchen Ansatz Apple hier wählt. Sehr durchdacht und mit vollem Schutz der Privatsphäre.
-3
Leselump06.08.21 10:50
Busterdick
Sehr guter Schritt! Kinder sind das höchste Gut, das unverletzlichste, das schützenswerteste. Diesen perversen Menschen muß klar gezeigt werden das sie der Abschaum der Gesellschaft sind. Bitte am liebsten direkt Zwangskastration. Meine Wut für solche Individuen kennt keine Grenzen und hier werden bei mir niedere Instinkte geweckt.
Der Schritt ist völlig falsch, beim Rest stimme ich zu.
+5
Bergedorfer06.08.21 10:54
Ob Kinder das höchste Gut sind, weiss ich nicht, aber sicher schützenswert.
Die Zwangskastration von Menschen mit niederen Instinkten ist "Drittes Reich".
Vorsicht!
+20
Dunkelbier06.08.21 10:54
Leselump
Der Schritt ist völlig falsch, beim Rest stimme ich zu.
Das Kind ist doch bei der Politik schon längst in den Brunnen gefallen. Da musst Du Dich beschweren.
+1
Urkman06.08.21 10:55
Leselump
Busterdick
Sehr guter Schritt! Kinder sind das höchste Gut, das unverletzlichste, das schützenswerteste. Diesen perversen Menschen muß klar gezeigt werden das sie der Abschaum der Gesellschaft sind. Bitte am liebsten direkt Zwangskastration. Meine Wut für solche Individuen kennt keine Grenzen und hier werden bei mir niedere Instinkte geweckt.
Der Schritt ist völlig falsch, beim Rest stimme ich zu.

Was wäre denn "der richtige Schritt"?
0
nane
nane06.08.21 10:57
Die Frage bei allen natürlich sehr löblichen Bestrebungen gegen Kindesmissbrauch ist, wie weit der "Scan" und damit auch die "Zensur" (des privaten Unternehmens Apple) in Zukunft gehen wird. Wie lange werden private FKK Bilder noch nach der "Auffassung" von Apple "erlaubt" sein? Ab wann sind wir alle "nackt" genug, weil wir vom privaten Weltkonzern Apple gescannt und damit für "unbedenklich" betrachtet werden? Wo wird Apple Grenzen setzen und wie "transparent" werden diese Grenzen pro Land kommuniziert werden?

Noch mal Kindesmissbrauch jeglicher Form geht nicht und wird zurecht juristisch verfolgt.

Ich fühle mich aktuell etwas zu "unrecht" unter irgendeinen Generalverdacht von Apple gestellt und ich will ehrlich gesagt nicht, dass meine privaten Bilder gescannt, verschwommen und weiss Gott, was noch alles werden, ohne dass ich als Konsument weiss, warum und in welcher Form das geschieht. Hier braucht es eine ganz klare Kommunikation von Apple und zwar pro Land. Denn jedes Land und damit jede Gesellschaft regelt das für sich passend in juristischer Form.

Die Lösung, Idioten auszusortieren, ist nicht die Masse der Benutzer zu überwachen. Und schon gar nicht, wenn die Überwachung von einem privaten Konzern wie Apple vorgenommen wird. Für ALLE diese Fälle haben wir eine unabhängige Justiz in der westlichen Welt etabliert.
Das Leben ist ein langer Traum, an dessen Ende kein Wecker klingelt.
+29
Leselump06.08.21 10:58
@Urkman
Eine dem Gesetz entsprechende Ermittlung, bzw. Richterliche Anordnung.
0
momirv06.08.21 11:01
Ich verstehe nicht, was das bringen soll. Unter den Straftätern wird sich das neue Apple Verfahren schnell rumsprechen und sie werden andere Kanäle finden und benutzen. Bleiben dann noch die Unschuldigen, die Fotos von ihren Kindern machen und wenn man Pech hat und die unbekannte Schwelle knackt, sitzen da irgenwelche fremde Menschen (bei Apple) und gucken sich ohne mein Wissen Nacktfotos von mir, meiner Frau und meinen Kindern!!!
+2
RichMcTcNs06.08.21 11:02
Augenzwinkernd, weil stutzig machend:

"Entgegen" wird immer noch mit dem Dativ gebildet.
0
Urkman06.08.21 11:04
Ihr versteht aber schon, was da gemacht wird?

Es wird nicht nach "nackten" oder sonst was gesucht...
Die Bilder werden "nur" mit bekannten Bildern verglichen.
+5
clayman06.08.21 11:06
und auch nur Hashwerte und keine Inhalte. Und wenn die Hashes nicht matchen passiert überhaupt nix
Urkman
Ihr versteht aber schon, was da gemacht wird?

Es wird nicht nach "nackten" oder sonst was gesucht...
Die Bilder werden "nur" mit bekannten Bildern verglichen.
+3
nane
nane06.08.21 11:07
Urkman
Ihr versteht aber schon, was da gemacht wird?

Es wird nicht nach "nackten" oder sonst was gesucht...
Die Bilder werden "nur" mit bekannten Bildern verglichen.
Ja, haben wir verstanden. Und im Zweifel sehen irgendwelche Menschen des privaten Konzerns Apple sich das Material noch mal an und entscheiden, nach welchen Kriterien, ob wir nun Verbrecher sind oder nicht?

clayman
und auch nur Hashwerte und keine Inhalte. Und wenn die Hashes nicht matchen passiert überhaupt nix
Dann wäre die ganze Aktion doch komplett sinnlos - oder nicht?
Das Leben ist ein langer Traum, an dessen Ende kein Wecker klingelt.
0
Busterdick06.08.21 11:07
Der Artikel hier ist einfach auch unvollständig übersetzt. Im Original ist davon die Rede das mittels "Hashes" nach Bildern gesucht wird die bereits auf einschlägigen Portalen identifiziert wurden. Diese Hashes, sollen fester Bestandteil des IOS werden/sein und zum Abgleich genutzt werden sobald das Bild in die iCloud geladen werden soll. Auf lokaler Ebene kann dies offensichtlich nicht passieren. Dann gibt es eine Meldung an die US amerikanischen Behörden (es geht aktuell auch nur um die USA weil die gesetzlichen Rahmenbedingungen in der EU noch andere sind) DAs Bild an sich kann aber nicht dadurch gesehen werden.

Nochmal, wir reden hier von massiv gestörten Menschen die kontinuierliche kriminelle Handlungen ausüben. Alleine der besitz eine s solchen Bildes ist strafbar, moralisch sind diese Menschen auf der niedrigsten Evolutionsstufe bei mir und verdienen keinerlei Respekt. Höchstens massive Misshandlungen
-8
Busterdick06.08.21 11:09
nane
Urkman
Ihr versteht aber schon, was da gemacht wird?

Es wird nicht nach "nackten" oder sonst was gesucht...
Die Bilder werden "nur" mit bekannten Bildern verglichen.
Ja, haben wir verstanden. Und im Zweifel sehen irgendwelche Menschen des privaten Konzerns Apple sich das Material noch mal an und entscheiden, nach welchen Kriterien, ob wir nun Verbrecher sind oder nicht?


Nein, es wird automatisch an die NCMEC (National Center for Missing & Exploited Children) gemeldet. Diese gibt es an die strafverfolgenden Behörden weiter.

Auszug aus dem NTV Artikel: "Während die Funktion nur für Apple-Kunden mit US-Accounts aktiviert wird, ist die Datei mit den Hashes fester Teil des Betriebssystems. Sie soll damit auf alle iPhones geladen werden, auf denen diese Systemversion installiert wird. Aktualisiert werden soll die Liste auf den Geräten entsprechend mit Erscheinen neuer Versionen der Betriebssysteme von iPhones und iPad-Tablets."
0
clayman06.08.21 11:10


bitte lest doch erstmal die technische Doku. Da steht sehr genau beschrieben, was gemacht wird und was nicht.

Es werden eben nicht "alle meine Bilder von Apple gescannt und angesehen".....

Ich finde den Spagat zwischen Privatsphäre behalten und perverse Kriminelle entlarven ganz gut gelungen
+11
nane
nane06.08.21 11:11
clayman
Danke für den Link! Super!
Das Leben ist ein langer Traum, an dessen Ende kein Wecker klingelt.
+1
BWeigelt06.08.21 11:16
Urkman
Ihr versteht aber schon, was da gemacht wird?

Es wird nicht nach "nackten" oder sonst was gesucht...
Die Bilder werden "nur" mit bekannten Bildern verglichen.

Genau das dachte ich auch gerade. Wenn ich ein Bild meines neugeborene nackten Kindes mache um es stolz meiner Familie zu präsentieren komme ich nicht auf die Liste, den das Bild ist nicht in einer Datenbank mit verbotenen Bildern. Das selbige gilt bei Nacktbildern mit Erwachsenen.

Ich muss also erst verbotenes bekanntes Material besitzen und hochladen was nach Rechtssprechung klar den Tatbestand für Besitz und Verbreitung von Kinderpornografie erfüllt.

Einzig hier sehe ich es als bedenklich an, dass die Technik für andere Dinge missbraucht werden kann. Beispielsweise kann man ja auch sagen das ich ein Banner mit Freiheit für Land A auf meinen Handy habe und wenn der Hash gesetzt wird darf ich in Land B nicht mehr einreisen. Die Möglichkeit bestände dann.

Was dazu führt das ich dieses Thema sehr Zwiegespaltet betrachte.
+24
mac-mark
mac-mark06.08.21 11:18
Natürlich ist der Beweggrund unstrittig und sehr willkommen zu heißen.

Die Bedenken gehen ja eher dahin, dass ein "Präzedenzfall" geschaffen wird und damit ein Tor geöffnet, welches sich leicht erweitern, aber nie wieder schließen lässt.

Welche Fotos sind dann in Zukunft verboten zu besitzen? Sind es in Zukunft dann auch Bildausschnitte (wozu das Bild gescannt wird)? Wer darf darüber entscheiden?
+7
clayman06.08.21 11:24
Gerne
ist zwar nicht ganz leicht zu lesen, weil sehr technisch, aber man sollte sich die Mühe machen, um zu verstehen, wie die Mechanismen (ja es sind mehrere) funktionieren.
nane
clayman
Danke für den Link! Super!
+4
mapplesioux06.08.21 11:29
Busterdick
Nochmal, wir reden hier von massiv gestörten Menschen die kontinuierliche kriminelle Handlungen ausüben. Alleine der besitz eine s solchen Bildes ist strafbar, moralisch sind diese Menschen auf der niedrigsten Evolutionsstufe bei mir und verdienen keinerlei Respekt. Höchstens massive Misshandlungen
Damit würdest du auf der gleichen Stufe stehen, wenn du diese Forderung ernst meinst. Stumpf ausgedrückt: Der Knast regelt das eh von ganz allein.
+2
Borimir
Borimir06.08.21 11:34
Leselump
Das geht eindeutig zu weit, privat ist privat! Ein Generalverdacht an alle Apple User auszusprechen ist ein Schlag unter die Gürtellinie und wird hoffentlich dementsprechende Konsequenzen haben für den Hersteller.
Das war´s dann mit Handyfotos und (Apple?) Smartphones, werde lieber wieder die gute alte DSLR mitschleppen und das gute alte 6310 auspacken.
Kindesmissbrauch ist nicht privat. Die angewendetet Metode zur Erkennung schein mir (als Laien) erst einmal gut und sicher.
+2
dermanndernichtsweiss
dermanndernichtsweiss06.08.21 11:43
Finde den Schritt von Apple sehr bedenklich. Das ganze Konstrukt ist so aufgesetzt, dass eine externe Datenquelle (Firma, Staat, ...) bestimmen kann welches Datenmaterial du als privatperson nicht besitzen darfst.
Das Schlimme daran ist, dass Apple als Kontrollinstanz fungiert, diese Faelle ueberprueft (automaitsch und manuell) und an die Behoerden meldet ohne dich als Nutzer vorher gefragt zu haben.

Das ist ein kompletter Gegensatz zu der Aussage "Deine Daten gehoeren nur dir und wir wissen nichts davon". Viel mehr sehe ich ein Zugestaendnis an die Behoerden, die eine Ueberwachung/Kontrolle der Nutzer fordern.
+10
Leselump06.08.21 11:45
Borimir
Leselump
Das geht eindeutig zu weit, privat ist privat! Ein Generalverdacht an alle Apple User auszusprechen ist ein Schlag unter die Gürtellinie...
Kindesmissbrauch ist nicht privat. Die angewendetet Metode zur Erkennung schein mir (als Laien) erst einmal gut und sicher.
Das hat auch niemand behauptet, möglicherweise haben sie den Post missverstanden.
+2
clayman06.08.21 11:49
"der Staat" definiert heute schon, was strafbar ist und was nicht. Daran ändert sich durch den Mechanismus von Apple überhaupt nichts.

Was sich ändert ist, dass die Technik von Apple Hashes mit einer DB abgleicht, die verbotenes, strafbares Material enthält. Und das unter Berücksichtigung der Privatsphäre. Es werden keine Bilder gescannt oder von Apple angesehen.

Und du bekommst es im Fall der Fälle schon mit. Dein Account wird gesperrt.
dermanndernichtsweiss
Finde den Schritt von Apple sehr bedenklich. Das ganze Konstrukt ist so aufgesetzt, dass eine externe Datenquelle (Firma, Staat, ...) bestimmen kann welches Datenmaterial du als privatperson nicht besitzen darfst.
Das Schlimme daran ist, dass Apple als Kontrollinstanz fungiert, diese Faelle ueberprueft (automaitsch und manuell) und an die Behoerden meldet ohne dich als Nutzer vorher gefragt zu haben.

Das ist ein kompletter Gegensatz zu der Aussage "Deine Daten gehoeren nur dir und wir wissen nichts davon". Viel mehr sehe ich ein Zugestaendnis an die Behoerden, die eine Ueberwachung/Kontrolle der Nutzer fordern.
+3
dermanndernichtsweiss
dermanndernichtsweiss06.08.21 11:53
clayman
"der Staat" definiert heute schon, was strafbar ist und was nicht. Daran ändert sich durch den Mechanismus von Apple überhaupt nichts.

Was sich ändert ist, dass die Technik von Apple Hashes mit einer DB abgleicht, die verbotenes, strafbares Material enthält. Und das unter Berücksichtigung der Privatsphäre.
Und du bekommst es im Fall der Fälle schon mit. Dein Account wird gesperrt.

Das ist richtig. Aber unter Windows/Linux/Mac hast du zu Hause auch nicht ein Scanner Programm laufen, der deine Daten mit einer Hash-Datenbank abgleicht. Im Fall von X Treffern wird dann dein Internetzugang gesperrt und die zustaendige Behoerde alarmiert.
Es werden keine Bilder gescannt oder von Apple angesehen.
Das ist Falsch. Sobald ein Schwellwert an Treffern erreicht wird, schaut sich ein Apple Mitarbeiter die Daten an und checked auf false-positiv.
+1
Urkman06.08.21 11:59
dermanndernichtsweiss
Im Fall von X Treffern wird dann dein Internetzugang gesperrt und die zustaendige Behoerde alarmiert.

Wenn du X Treffer hast, hast du ein ganz anderes Problem...
+6
clayman06.08.21 12:02
exakt!!
Urkman
dermanndernichtsweiss
Im Fall von X Treffern wird dann dein Internetzugang gesperrt und die zustaendige Behoerde alarmiert.

Wenn du X Treffer hast, hast du ein ganz anderes Problem...
+1
clayman06.08.21 12:05
dermanndernichtsweiss
clayman
"der Staat" definiert heute schon, was strafbar ist und was nicht. Daran ändert sich durch den Mechanismus von Apple überhaupt nichts.

Was sich ändert ist, dass die Technik von Apple Hashes mit einer DB abgleicht, die verbotenes, strafbares Material enthält. Und das unter Berücksichtigung der Privatsphäre.
Und du bekommst es im Fall der Fälle schon mit. Dein Account wird gesperrt.

Das ist richtig. Aber unter Windows/Linux/Mac hast du zu Hause auch nicht ein Scanner Programm laufen, der deine Daten mit einer Hash-Datenbank abgleicht. Im Fall von X Treffern wird dann dein Internetzugang gesperrt und die zustaendige Behoerde alarmiert.
Es werden keine Bilder gescannt oder von Apple angesehen.
Das ist Falsch. Sobald ein Schwellwert an Treffern erreicht wird, schaut sich ein Apple Mitarbeiter die Daten an und checked auf false-positiv.
es werden dann die "Treffer-Bilder" angesehen, nicht alle deine auf iCloud gespeicherten Bilder. Und die Fehlertoleranz ist 1:1 Billion
0
Weitere News-Kommentare anzeigen

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.