Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Foto-Analyse und iMessage-Scans: Apples Softwarechef Craig Federighi spricht von Missverständnissen

Normalerweise gehören öffentliche Auftritte für Craig Federighi vermutlich eher zu den angenehmen Aspekten seiner Tätigkeit. Der Senior Vice President of Software Engineering darf im Rahmen von Events unter anderem regelmäßig neue Betriebssystem- und App-Versionen sowie andere Entwicklungen vorstellen. Da er aber in Cupertino für sämtliche Software zuständig ist, fallen naturgemäß auch Apples vor Kurzem angekündigte und zum Teil heftig kritisierte Maßnahmen gegen Kindesmissbrauch in seine Verantwortung. In einem Interview bezog er dazu jetzt Stellung.


Craig Federighi nennt zusätzliche Informationen
Federighi stand vor einigen Tagen dem Wall Street Journal Rede und Antwort, die Fragen stellte dabei die bekannte Journalistin Joanna Stern. Der Softwarechef des iPhone-Konzerns reihte sich damit in die Riege der Apple-Manager ein, welche die Kinderschutzmaßnahmen bereits in den Tagen zuvor näher erläutert hatten. Er wiederholte unter anderem einige Argumente, die schon der Datenschutz-Chef des kalifornischen Unternehmens in einem Interview vorbrachte, gab in dem Gespräch jedoch auch einige zusätzliche Informationen preis. Beispielsweise nannte Federighi erstmals eine konkrete Zahl im Zusammenhang mit auf iPhones und iPads entdecktem kinderpornografischem Material.


Schwellenwert liegt bei etwa 30 erkannten Bildern
Die in iOS 15 integrierte Hash-Analyse von Fotos, welche nach iCloud hochgeladen werden, schlägt bekanntlich nicht bereits beim ersten Fund Alarm. Erst wenn ein bestimmter Schwellenwert überschritten wird, erfolgt eine entsprechende Meldung an Apple, das Unternehmen leitet dann weitere Schritte ein. Laut Craig Federighi erfolgt das erst, wenn rund 30 bekannte kinderpornografische Bilder auf einem iPhone oder iPad entdeckt wurden. Darüber hinaus bekräftigte der hochrangige Manager erneut, dass anschließend ausschließlich diese Fotos und keine anderen von Mitarbeitern überprüft würden. Apples Softwarechef bedauert in diesem Zusammenhang, dass es nach der Ankündigung der Maßnahmen zu "Missverständnissen" gekommen sei. Man habe insbesondere die Tatsache stärker betonen müssen, dass Apple die lokale Foto-Analyse nicht vornehme, wenn iCloud Fotos nicht genutzt werde.

Federighi: Kein Druck von staatlichen Stellen
Apples Softwarechef betonte darüber hinaus, der kalifornische Konzern führe die neuen Maßnahmen nicht auf Druck etwa von staatlichen Stellen ein. Apple tue das jetzt, so Federighi, weil man einen Weg gefunden habe, mithilfe der lokalen Foto-Analyse und der iMessage-Scans auf den Geräten sowohl den Schutz von Kindern als auch die Privatsphäre der Nutzer zu gewährleisten. Beide Verfahren stellten zudem keine Backdoor dar. Apple habe das System so gestaltet, unter anderem durch eine einzige weltweit eingesetzte Hash-Datenbank, dass es nicht für andere Zwecke missbraucht werden könne. Zudem gebe es mehrere Auditing-Ebenen, die für Sicherheit sorgten.

Kommentare

Holly
Holly16.08.21 17:52
Alles nur ein riesiges Missverständnis. Weil wir sind ja alle nur zu Doof zu verstehen was Apple wirklich damit will… Sorry 🤦🏻‍♂️
+26
AidanTale16.08.21 18:19
Ungefragt und gegen meinen Willen meine private Fotosammlung nach irgendwelchen Hashmatches zu scannen bzw. die entsprechende SW Infrastruktur für Massenüberwachung durch eine Privatfirma zu schaffen gewährleistet keine Privatsphäre für die Nutzer.

Ich wiederhole mich, aber wenn das die enormen Möglichkeiten der Neuralengine sind von der Craig bei der WWDC geschwärmt hat hätte ich das Ding gern abschaltbar.

Apple sollte dieses Feature schleunigst beerdigen und signalisieren dass sie den Kern der Kritik verstehen und Privatsphäre ernst nehmen.
+35
Magicbuster
Magicbuster16.08.21 18:24
Der Kampf gegen Kinderpornografie ist gut und richtig. Aber einen Generalverdacht gegen alle Fotocloud Nutzer, weil es da draußen kranke Typen gibt, ist der falsche Ansatz! Sorry Apple, aber dass ist der FALSCHE Ansatz! Es ist nicht die Aufgabe einer Techfirma auf Jagd nach Kinderschändern zu gehen. Das ist Aufgabe der Polizei!
+36
bmac16.08.21 18:27
Eine gute Gelegenheit wieder mehr über Privatsphäre nachzudenken und sich hierüber zu informieren.

Bin gespannt wie sich die Einstellungen zur Annahme / Nichtannahme von Cloud allgemein entwickelt. Das kann man doch nur noch nutzen wenn man vorher einen selbst verschlüsselten Komplettordner händisch raufschiebt. Dann - hat man sein Backup für den "Fall der Fälle".

Ich für meinen Teil - hab noch nie verstanden wozu man alle Bilder und Daten so unbedingt an jedem Ort und auf allen Geräten zur Verfügung haben muss.
+10
rudluc16.08.21 18:38
Man kann die Fotos.App so einstellen, dass die iCloud nicht verwendet wird. Da wird Apple sicher einige iCloud-Abonnenten verlieren.
+12
Kovu
Kovu16.08.21 18:56
Keine Ahnung, ob ich dafür hier downgevoted werde, aber ich mag Apples Ansatz. Sie kommunizieren das so offen wie möglich und die Chance, einem falschen Verdacht zu unterliegen, ist eins zu einer Trillionen. Und da sitzt kein Mitarbeiter und schaut sich die Fotos meiner Tochter an.
Mir liegt viel an meiner Privatsphäre. Aber das „solche Leute“ die iCloud eben dafür nicht mehr nutzen können finde ich gut. Und Nachteile habe ich dadurch eben keine. Auch keine, die meine Privatsphäre betreffen.
0
antra16.08.21 18:57
Podcast Empfehlung zu diesem Thema:

Titel: "Here’s why Apple’s new child safety features are so controversial"
Von: "Decoder with Nilay Patel (von The Verge)"
+4
MacGuffin16.08.21 19:04
Was für "Missverständnisse"?
Der Großteil der User hat dies sehr wohl verstanden.
Also hat wieder der blöde User Schuld und nicht "Apple".
Eine sehr überhebliche Argumentation.

"Apple habe das System so gestaltet, unter anderem durch eine einzige weltweit eingesetzte Hash-Datenbank, dass es nicht für andere Zwecke missbraucht werden könne. Zudem gebe es mehrere Auditing-Ebenen, die für Sicherheit sorgten."

Craig Federighi weiß genau, dass dies niemand nachprüfen kann.
Er verlangt also Apple bedingungslos zu vertrauen.

Wieso vertraut Apple mir nicht, wenn ich sage ich hab solches Zeug nicht?
+26
chessboard
chessboard16.08.21 19:20
Was außer einer Verlagerung des Aufwands (Rechenleistung, Stromverbrauch etc.) auf die Seite der Nutzergeräte, statt Apples Server damit zu belasten, spricht denn dagegen, dass Apple gefälligst selbst die in iCloud hochgeladenen Fotos kontrolliert?
Dagegen gäbe es sicherlich wenig einzuwenden.

Abgesehen davon - was ist denn das für ein Unsinn mit diesen Schwellenwerten? Entweder geht man gegen das Problem vor, dann ist jedes einzelne Foto eins zu viel. Oder man nimmt die ganze Sache doch nicht so ernst. Dann kann man natürlich tolerieren, dass ein Nutzer erkanntermaßen bis zu 29 entsprechende Fotos auf seinem Gerät vorhält und diese teilen will.

Überzeugend ist weder das Konzept, noch die nachgeschobenen Erklärungen und Beteuerungen.
+11
MikeMuc16.08.21 19:25
Es hätte wohl andere PR gegeben wenn es tatsächlich einen Schalter geben würde "Scannen deaktivieren". Der hätte dann halt einen Dialog zu Folge, das man dann eben leine Bilder mehr in die iCloud laden kann und auch keine mehr mehr per iMessage verschicken kann. Meinetwegen ein 2. Schalter mit dem man Bilder "für iMessage" dann doch scannen lassen kann.
Das Apple die fraglichen Bildern halt nicht auf seinen Servern haben will und das irgendwie sicherstellen will / muß, muß man halt akzeptieren wenn man die entsprechenden Appledienste nutzen will.
+3
AidanTale16.08.21 19:27
Kovu
Sie kommunizieren das so offen wie möglich und die Chance, einem falschen Verdacht zu unterliegen, ist eins zu einer Trillionen. Und da sitzt kein Mitarbeiter und schaut sich die Fotos meiner Tochter an.

Einfach mal die Nutzer vor vollendete Tatsachen zu stellen und dann mehr und mehr zurückzurudern und zu beschwichtigen finde ich wenig offen.

Wie die Chancen für eine Falschmeldung sind kann man aufgrund der proprietären Implementation des Hashs nicht wirklich abschätzen, sonderlich scharf wird er nicht sein denn dann könnten leichte Fotomanipulationen ja schon dazu führen die Bilder nicht zu erkennen. Zudem reden wir von 100en Millionen Nutzer mit zum Teil sehr großen Fotosammlungen.
+9
Lagavulin
Lagavulin16.08.21 19:29
Alles nur ein Missverständnis.

Niemand hat die Absicht, eine Mauer zu errichten!
Always look on the bright side of life
+22
AidanTale16.08.21 19:32
chessboard
Was außer einer Verlagerung des Aufwands (Rechenleistung, Stromverbrauch etc.) auf die Seite der Nutzergeräte, statt Apples Server damit zu belasten, spricht denn dagegen, dass Apple gefälligst selbst die in iCloud hochgeladenen Fotos kontrolliert?
Dagegen gäbe es sicherlich wenig einzuwenden.

Doch auch dagegen habe ich was einzuwenden. Die Daten in der iCloud sollten vollverschlüsselt sein. Warum sollte darauf jemand außer mir Zugriff haben? Wenn ich die für andere freigebe oder veröffentliche, gut dann ja, wenn nicht auf keinen Fall.
+13
Gedankenschweif16.08.21 19:40
Wenn ihr Euch hier alle über Apples Ansatz aufregt, solltet Ihr laut Fluchen, über das, was Google, Microsoft, Amazon etc. machen.
Die analysieren nämlich jedes Foto, das man in deren Cloudspeicher hochlädt.
Bei denen ist überhaupt gar nichts mit Privatsphäre, denn die gucken sich jedes einzelne Bild im Detail an, ob es denn vielleicht kinderpornografische Inhalte haben könnte. Und da man die Bilder ja ohnehin schon mal gescannt hat, kann man die Daten ja auch direkt für eigene Zwecke nutzen.
Da lob ich mir doch Apples Ansatz. Da wird nämlich kein einziges Bild analysiert, sondern lediglich der Hashwert des Bildes gegen ein Datenbank voll Hashwerte von bekannten kinderpornografischen Bildern abgeglichen. Und das auch noch auf meinem Device. Apple erhält dadurch also keine Daten über den Nutzer.
Im Gegensatz zum Vorgehen der anderen Cloudanbieter.
+18
Dunkelbier16.08.21 20:02
Apples Ansatz erlaubt es, eine echte End-to-End-Verschlüsselung auf der Cloud einzurichten. Bei MS und Google kann das nicht gehen, denn die Daten ja online gescannt werden.

Welcher Ansatz ist besser? Hashwerte offline vergleichen nur von Bildern, die hochgeladen werden, oder gleich alle in der Cloud?
+9
jmh
jmh16.08.21 20:17
"schatz, es ist nicht das, wonach es aussieht, ich kann alles erklaeren!"
wir schreiben alles klein, denn wir sparen damit zeit.
+9
Nightraider16.08.21 20:22
jmh
"schatz, es ist nicht das, wonach es aussieht, ich kann alles erklaeren!"

Genau - ein bißchen überwachen ist wie ein bißchen schwanger…
+12
heubergen16.08.21 20:27
Auch wenn es vermutlich downvotes gibt möchte ich anfügen das ich das neue "Feature" recht gelassen entgegenstehe und keine grosse Vorteile für die Bekämpfung aber auch keine Nachteile für die Gesellschaft sehe.
0
Niederbayern
Niederbayern16.08.21 20:44
Ereilt ihm etwa selbiges Schicksal wie einem gewissen Herrn Scott Forstall?
Apple ist da ja nicht zimperlich was das personelle Ausradieren betrifft🤔
-14
depeche101mode16.08.21 22:01
Lagavulin

Oder einen Impfzwang einzuführen 😂

Duck und weg…



-16
Terendir16.08.21 22:08
Ich werde definitiv nicht auf iOS 15 / macOS 12 aktualisieren, solange Apple an diesen Plänen festhält. Langfristig könnte ich auch komplett weg von Apple gehen, je nach dem wie sich das entwickelt.

Ich hab nur meine Angst, dass Microsoft und Google bald nachziehen. Generell bewegen sich die großen Internet-Giganten ja schon länger immer mehr Richtung Filter & Kontrolle - und auch die Politik macht zunehmend Druck. Langfristig wird es wohl auf Open Source alá Linux hinauslaufen, wenn man auch nur Ansatzweise Wert auf Privatsphäre legt.
+2
Fard Dwalling16.08.21 22:16
Was bringt dir die End-to-End-Verschlüsselung wenn dein Backup in der iCloud nicht verschlüsselt ist??

Kochen halt alle doch auch nur mit Wasser und Apple ist nicht der Heilige Gral des Datenschutzes und Privatsphäre die sie vorgeben...
Dunkelbier
Apples Ansatz erlaubt es, eine echte End-to-End-Verschlüsselung auf der Cloud einzurichten. Bei MS und Google kann das nicht gehen, denn die Daten ja online gescannt werden.

Welcher Ansatz ist besser? Hashwerte offline vergleichen nur von Bildern, die hochgeladen werden, oder gleich alle in der Cloud?
+3
Nightraider16.08.21 22:26
Terendir
Ich werde definitiv nicht auf iOS 15 / macOS 12 aktualisieren, solange Apple an diesen Plänen festhält. Langfristig könnte ich auch komplett weg von Apple gehen, je nach dem wie sich das entwickelt.

Ich hab nur meine Angst, dass Microsoft und Google bald nachziehen. Generell bewegen sich die großen Internet-Giganten ja schon länger immer mehr Richtung Filter & Kontrolle - und auch die Politik macht zunehmend Druck. Langfristig wird es wohl auf Open Source alá Linux hinauslaufen, wenn man auch nur Ansatzweise Wert auf Privatsphäre legt.

Ich hätte auch niemals den Beta-Test begonnen mit dem Wissen von heute.
Einerseits produziert Apple Serien wie „Teheran“ und dann öffnen sie nunmehr die Büchse der Pandora…
+2
Peter Longhorn16.08.21 23:02
Kovu
Keine Ahnung, ob ich dafür hier downgevoted werde, aber ich mag Apples Ansatz. Sie kommunizieren das so offen wie möglich und die Chance, einem falschen Verdacht zu unterliegen, ist eins zu einer Trillionen. Und da sitzt kein Mitarbeiter und schaut sich die Fotos meiner Tochter an.
Doch tut er. Noch immer nicht verstanden? Ein Hash-Algorithmus (nicht nur ein Hash über die Datei, sondern irgendein neuartiger, der auch Änderungen erkennt) schaut über alle deine Fotos. Wenn er der Meinung ist ein Kipo-Bild erkannt zu haben wird es in die Cloud geladen mit dem entsprechenden Marker. Bei 30 solchen Bildern schaut sich dann ein Apple Mitarbeiter diese Bilder an und meldet es an die Polizei weiter falls die Erkennung tatsächlich stimmt.

Jetzt kann man sich natürlich ein paar Dinge Fragen:
1.) Nach was scannt Apple genau und wie kann ich das überprüfen?
2.) Woher kommen die Listen tatsächlich und wie kann ich das überprüfen?
3.) Wieso erst ab 30 Bildern? Wieso nicht 20? Wieso nicht 10? Wieso nicht erst 1000? Wieso nicht ab dem 1.? Welche Begründung gibt es für diesen Wert?
4.) Ist es wirklich gut wenn eine private Firma Polizei spielt? Es wäre nicht das erste mal, dass Apple Mitarbeiter Fotos ihrer Kunden an die Öffentlichkeit leaken.
+3
TomTommes16.08.21 23:09
Ich sehe auch nur die Möglichkeit bei iOS 14 zu bleiben…
Ich lass meine Bilder nicht von Apple Filzen…
+6
richm16.08.21 23:18
Es muss irgendeinen anderen Grund gegeben haben, warum Sie diesen Schritt jetzt eingeleitet haben. Wir werden ihn wohl nie erfahren. Bei jedem anderen Thema ist es "scheinbar" Apple wichtig das Daten nicht direkt dem Kunden zugeordnet werden können, Anti-Tracking von Werbung, Siri Anfragen, Bezahlungen über ApplePay, Health Informationen, Fotos aaahhhh Moment nur die Hashes muss man mit Apple teilen und Apple darf Sie mit meiner AppleID verknüpfen und wenn Apple ein Hash-Match findet dürfen Sie sogar die Bilder anschauen, ookayy. Ach gut das der Key für die Verschlüsselung auf Apples Server liegen ansonsten könnten Sie die Bilder leider garnicht sichten und die Beweislast wäre etwas mau. Gut finde ich, dass Sie dies auch transparent so auf der Homepage schreiben und mir als Kunde sofort klar ist auf was ich mich hier einlasse
Mit Fotos bleiben deine Fotos deine Fotos. Die Fotos App verwendet maschinelles Lernen, um Fotos direkt auf deinem Gerät zu organisieren. So brauchst du sie weder mit Apple noch mit anderen zu teilen. Deine Foto- und Videoalben zeigen viele wertvolle Momente, deine Freund:innen und all das, was du magst. Apple Geräte sind so ent­wickelt, dass diese Erinne­rungen nur in deinen Händen bleiben – es sei denn, du möchtest sie teilen.

Quelle Apples Privatsphären Seite:
+2
evanbetter
evanbetter16.08.21 23:47
Nach diesem Debakel ist nichts mehr glaubwürdig, was von Apple kommt. Ich hielt Apple für die einzigen, die mich als Kunden schätzen und schützen. Dafür (und für das wirklich gute System/Hardware/geringen Wertzerfall) war ich auch bereit, mehr zu bezahlen; ich war mir bewusst, dass das auch was kostet. Jetzt weiss ich nicht mal mehr, ob ich in naher Zukunft verhaftet werde, weil im Urlaubsgastland festgestellt wird, dass das Bild einer Brücke auf meinem Handy ist, welche man nicht fotografieren darf. Und nein, das ist nicht übertrieben! Unser Bewegungsspielraum wird sehr eng in Zukunft, das muss man jetzt erkennen. Und ja, da ist natürlich nicht nur Apple übel. Aber von denen dachte ich es halt bisher nicht... stupid me.
Wer zuletzt lacht, hat's zuletzt geschnallt.
+5
evanbetter
evanbetter16.08.21 23:56
Kovu
Keine Ahnung, ob ich dafür hier downgevoted werde, aber ich mag Apples Ansatz. Sie kommunizieren das so offen wie möglich und die Chance, einem falschen Verdacht zu unterliegen, ist eins zu einer Trillionen. Und da sitzt kein Mitarbeiter und schaut sich die Fotos meiner Tochter an.
Mir liegt viel an meiner Privatsphäre. Aber das „solche Leute“ die iCloud eben dafür nicht mehr nutzen können finde ich gut. Und Nachteile habe ich dadurch eben keine. Auch keine, die meine Privatsphäre betreffen.

Bitte, bei allem Respekt - informiere dich tiefergehend und denke um die nächste Ecke - mit Kampf gegen Kinderporno sammelt man Punkte - da sagt niemand nein. Aber dass Apple nicht DER Kinderschützer ist und sich das so auf die Fahne schreibt im vollen Wissen, dass diese Massnahme viele Kunden verunsichern/vergraulen wird, ist doch sonnenklar. Das würde keine Firma machen. Also gibt es andere Gründe: Sie wurden sehr "stark dazu eingeladen" und das eigentliche Begehren sind Informationen, die Dritten wirklich etwas bringen - je nach Interessensgebiet etwa so:
  • Das Foto der neuen Maschine in der Werkshalle
  • Fotos von Plänen, Rezepten,...
  • Fotos von Dissidenten
  • Fotos, die in Deutschland total harmlos sind, dich im Iran aber mindestens eine Hand kosten
  • Intime (aber legale) Fotos, die Leute erpressbar machen
  • ...
Das ist kein Wahnwitz, sondern eine mögliche Realität.
Wer zuletzt lacht, hat's zuletzt geschnallt.
+3
evanbetter
evanbetter17.08.21 00:03
Und echt: Die würden sich besser darum kümmern, dass das System wieder besser läuft:
  • Externe Monitore die seit Monaten nicht richtig funktionieren an M1-Kisten
  • Print und Scanning Probleme - hey, Printer gibt's ja nicht erst seit letzten Donnerstag
  • Grundfunktionen gehen plötzlich nicht mehr (CMD+Tab ging heute bei mir plötzlich nicht mehr, auf einem nigelnagelneuen BacBook Pro M1)
  • Plötzlich keine Eingabe mehr möglich in alle Apps - Restart
  • Musik streaming (Air Play) unterbricht immer wieder mal
Und das habe ich auf mehreren Kisten unabhängig festgestellt.
Wer zuletzt lacht, hat's zuletzt geschnallt.
+8
Pixelmeister17.08.21 00:10
richm
nur die Hashes muss man mit Apple teilen und Apple darf Sie mit meiner AppleID verknüpfen und wenn Apple ein Hash-Match findet dürfen Sie sogar die Bilder anschauen, ookayy
Ich glaube, das hast du nicht richtig verstanden – man teilt keine Hashes eigener Bilder mit Apple. Apple liefert mit dem OS eine Anzahl von Hashes von eindeutig kinderpornografischem Material mit. Erst wenn du versuchst, Bilder in iCloud hochzuladen, gleicht das OS "on Device" deine hochzuladenden Bilder mit den Hashes der Datenbank ab. Ab einem erreichten Schwellwert von rund 30 Bildern guckt sich ein Mitarbeiter die betreffenden Bilder in der iCloud an. Wenn es sich dann um Kinderporno handelt, werden entsprechende Stellen eingeschaltet.

D.H.:

1) Normalerweise überprüft das OS deine Bilder gar nicht. Wer nichts (in die iCloud) hochlädt, für den ändert sich nichts.

2) Erst wenn du in die iCloud hochlädtst, werden auf deinem Gerät die Bilder gegen die lokale Datenbank gecheckt. Davon bekommt Apple nichts mit. Sind es normale Nackedei-Bilder (oder ganz andere Motive), erfährt Apple davon nichts, denn es passiert "on-device", ohne Zutun irgendwelcher Server.

3) Erst wenn mehrfach Kinderpornos entdeckt werden, schaut sich ein Mitarbeiter das nochmal in echt an – aber NICHT auf deinem Device, sondern nach dem Upload in der Cloud. Und zwar nur die gekennzeichneten Bilder, keine anderen. Die Nacktfotos von deiner Freundin bekommt er nicht zu sehen (ganz im Gegenteil zum Google-Mitarbeiter).

Wenn man kühl darüber nachdenkt, ist das Verfahren besser als das der Konkurrenz, wo Mitarbeiter ohne Verdachtsfälle alle hochgeladenen Bilder angucken können. Aber vom Gefühl her, macht es Bauchschmerzen, weil ein Teil des Prozesses (eigentlich aus Datenschutz-Gründen) anonym auf dem Gerät stattfindet. Es ist hier also ein Kampf zwischen Bauchgefühl und Hirn. Und da gewinnt selten das Hirn.
+21
Weitere News-Kommentare anzeigen

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.