Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Electronic Frontier Foundation fordert: Apple muss Foto-Scan komplett stoppen und Datenschutz-Versprechen halten

Angesichts der überwiegend negativen Presse und lautstarken Kritik von verschiedenen Seiten gab Apple am Freitag bekannt, den Scan nach illegalen Inhalten vorerst nicht einzuführen. Die Besonderheit der von Apple gewählten "CSAM"-Erkennung (Child Sexual Abuse Material) war, vor dem iCloud-Upload lokal einen Abgleich nach entsprechendem Bildmaterial vorzunehmen. Was als datenschutztechnisch besonders vorteilhafte Lösung angepriesen werden sollte, ging in der öffentlichen Wahrnehmung hingegen nach hinten los. Was beim Großteil der Nutzer ankam, war schlicht: Apple scannt fortan alle meine lokalen Fotos und wertet diese aus.


Apple kann die Diskussion nicht mehr einfangen
Zwar äußerte sich Cupertino rasch und erklärte, es finde ein Abgleich mit bekannten kinderpornografischen Darstellungen und keine generelle Analyse statt, zu diesem Zeitpunkt war es aber schon zu spät. Auch Kritik, dass man hier despotischen Staaten Tür und Tor öffne, wirkungsvoll Regimegegner ausfindig zu machen, konnte Apple nicht mehr einfangen. Genau dieser Aspekt gilt als besonders gefährlich – aus der sicheren iPhone-Festung würde damit ein System, welches die von Apple so vehement bekämpften "Hintertürchen" faktisch böte.

EFF lobt Moratorium – und kritisiert weiter
Die Electronic Frontier Foundation hat sich nun zu Apples jüngster Ankündigung geäußert und begrüßt, dass erst einmal keine Umsetzung der Pläne stattfindet. Ein "vorerst" reiche aber nicht aus, denn Apple müsse jetzt mehr tun, als nur zuzuhören. Stattdessen sei geboten, die Idee vollständig zu begraben und keine bewussten Schwachstellen in die Verschlüsselung zu integrieren. Apple solle am bisherigen Versprechen festhalten, wirkliche Privatsphäre zu bieten und jeglichen Zugriff auf private Daten zu verhindern.

Apples jahrelang aufgebauter Ruf leidet
Bislang ist nicht bekannt, ob Apple den Forderungen nachkommt. Angesichts der aktuellen Stimmung, innerhalb kürzester Zeit litt Apples Ruf als Datenschutz- und Privatsphäre-Vorreiter ganz massiv, erscheint eine Abkehr vom Foto-Scan allerdings als ziemlich wahrscheinlich. Man darf sich weiterhin die Frage stellen, warum man das Problem während der Entscheidungsfindung nicht kommen sah – zumal kaum einem Normalanwender die Implikationen bewusst sein dürften, warum lokale Analyse normalerweise die bessere Lösung für Datenschutz darstellt.

Kommentare

MacRS06.09.21 14:04
Es wird ja immer wieder gefordert, dass nicht clientseitig, sondern nur auf dem Server gescannt wird. Wie soll das eigentlich gehen, wenn die Karten dort verschlüsselt liegen?
+2
mickmäck06.09.21 14:52
Apples jahrelang aufgebauter Ruf leidet
Vertrauen in 30 Jahren von 0 auf 100. Eine Woche hat gereicht um von 100 auf 0 zu kommen.
+16
janstolle06.09.21 14:53
MacRS
Es wird ja immer wieder gefordert, dass nicht clientseitig, sondern nur auf dem Server gescannt wird. Wie soll das eigentlich gehen, wenn die Karten dort verschlüsselt liegen?

Das ist ja eben genau das, was Apples Intention ist. Wenn sie die Daten vor der Verschlüsselung auf dem iPhone scannen, könnten sie verschlüsselt gespeichert werden und Apple kann trotzdem (relativ) sicher sein, dass sie keine unerwünschten Daten speichern.
Aktuell sind die Fotos eben noch nicht verschlüsselt in der iCloud.
Leider hat das ganze Client-seitig echt einen unangenehmen Beigeschmack, vor allem wenn die Sachen nicht komplett open source sind und man einsehen kann was dort geschieht.
+6
Christoph_M
Christoph_M06.09.21 14:59
mickmäck
Apples jahrelang aufgebauter Ruf leidet
Vertrauen in 30 Jahren von 0 auf 100. Eine Woche hat gereicht um von 100 auf 0 zu kommen.
So ist das mit dem Ruf, ruiniert ist er schneller als aufgebaut. Und genau das irritiert mich, das muss Apple doch bewusst gewesen sein. Also warum die Aktion? Meine einzige Erklärung: jemand hat denen die Pistole auf die Brust gesetzt damit lokales Scanner möglich sein wird und welch besseres Argument kann man schon vorbringen nach außen ausser KiPo? Oder sie haben es wirklich nicht kommen sehen wie alle reagieren, aber dafür wurde viel zu viel Geld in das Datenschutzimage gesteckt um dann so ein Risiko einzugehen. Imho.
+6
Holly
Holly06.09.21 15:06
Es ist zumindest schön dass das Thema jetzt nicht einfach im Sande verläuft. Gut das es Institutionen gibt die Apple nicht so einfach davon kommen lassen. 👍
+12
zactech06.09.21 15:40
Vielleicht hat Apple auch gedacht, die Menschen wären schlauer. Also bei dieser Methode schaut weder Mensch noch Bilderkennung auf die Bilder um den Hashwert zu berechnen, den Client verlassen die Bilder nur verschlüsselt und nur bei übereinstimmenden Hashes in mehrfacher Zahl wird es untersucht.
Die Wahrscheinlichkeit zufällig übereinstimmender Hashes mit privaten Fotos ist ca. null.

Die Motivation von Apple das zu kommunizieren: Transparenz und ein Hinweis: Nutzt unsere Software nicht für den Dreck! Denn es gefällt ihnen nicht, dass der Datenschutz genau diese Verwendung unterstützt.

Denn das Argument mit der Stattskontrolle, ach... das geht doch sowieso OHNE dass man es mitteilt bei jedem Closes Source-System. Wegen Apples Ankündigung z.B. zu Google oder Microsoft zu wechseln ist einfach nur unglaublich naiv. Und dann dazu am besten Fotos bei Facebook posten und WhatsApp nutzen, aua.
-7
Borimir
Borimir06.09.21 15:55
OK...in Sachen Softwareprogramierung habe ich echt keine Ahnung.....aber:

wäre es nicht möglich, die Daten zu Apple zu übertragen (in einen "allgemeinen Bereich")....dann scannen ...dann in den verschlüsselten User-Bereich übertragen?
-5
lamariposa06.09.21 16:20
zactech
Vielleicht hat Apple auch gedacht, die Menschen wären schlauer.
Ich denke Vielen ist klar dass es besser ist auf dem Gerät selbst zu scannen.

ABER Vielen ist auch bewusst dass bei jedweder Salamitaktik bezüglich Untergrabung der Sicherheit ZUALLERERST und IMMER Kinderpornographie ins Feld geführt wird. Wenn das durchgedrückt wurde kommt als Nächstes Terrorabwehr, dann nochmal Terrorabwehr plus sonstiger Mehr-Sicherheit, dann Clan- und/oder Mafiakriminalität/Geldwäsche, und danach ist eh alles wurscht.

Es gilt hier somit schlicht „Wehret den Anfängen“, und das ist meiner Meinung nach auch absolut richtig so.
+14
ruphi06.09.21 16:25
Borimir
OK...in Sachen Softwareprogramierung habe ich echt keine Ahnung.....aber:

wäre es nicht möglich, die Daten zu Apple zu übertragen (in einen "allgemeinen Bereich")....dann scannen ...dann in den verschlüsselten User-Bereich übertragen?
Ich hab auch wenig Ahnung von Software Development & IT-Sicherheit, aber:
Wenn die Daten unverschlüsselt zu Apple wandern, ist das Kind doch schon in den Brunnen gefallen..
Also klar, falls jemand Apples Server hacken würde, könnte er später nur noch einen kleinen Teil unverschlüsselter Bilder finden und der größte Teil wäre verschlüsselt – das wäre eine Verbesserung gegenüber der jetzigen Situation.
Aber wenn ein böser Apple-Mitarbeiter oder die NSA an deine Bilder wollen, dann würden die sie einfach direkt bei der Übertragung abgreifen.
+2
zactech06.09.21 16:35
lamariposa

ABER Vielen ist auch bewusst dass bei jedweder Salamitaktik bezüglich Untergrabung der Sicherheit ZUALLERERST und IMMER Kinderpornographie ins Feld geführt wird. Wenn das durchgedrückt wurde kommt als Nächstes Terrorabwehr, dann nochmal Terrorabwehr plus sonstiger Mehr-Sicherheit, dann Clan- und/oder Mafiakriminalität/Geldwäsche, und danach ist eh alles wurscht.

Es gilt hier somit schlicht „Wehret den Anfängen“, und das ist meiner Meinung nach auch absolut richtig so.

Klingt ja richtig, ist aber Wunschdenken. Denn andere führen es einfach ohne Salamitaktik im Verborgenen ein. Und die lachen sich gerade schlapp über die Diskussion um Apple.
-5
Borimir
Borimir06.09.21 16:38
ruphi
Borimir
OK...in Sachen Softwareprogramierung habe ich echt keine Ahnung.....aber:

wäre es nicht möglich, die Daten zu Apple zu übertragen (in einen "allgemeinen Bereich")....dann scannen ...dann in den verschlüsselten User-Bereich übertragen?
Ich hab auch wenig Ahnung von Software Development & IT-Sicherheit, aber:
Wenn die Daten unverschlüsselt zu Apple wandern, ist das Kind doch schon in den Brunnen gefallen..
Also klar, falls jemand Apples Server hacken würde, könnte er später nur noch einen kleinen Teil unverschlüsselter Bilder finden und der größte Teil wäre verschlüsselt – das wäre eine Verbesserung gegenüber der jetzigen Situation.
Aber wenn ein böser Apple-Mitarbeiter oder die NSA an deine Bilder wollen, dann würden die sie einfach direkt bei der Übertragung abgreifen.
Naja, ich dachte schon an (von Apple) verschlüsselter Übertragung in einen geschützen "Wartebereich". Und wenn dann nichts an den Fotos auszusetzen ist gehen die in den für Apple nicht mehr einzusehenden Bereich. Bin ich da zu naiv?
-3
Weia
Weia06.09.21 16:43
zactech
Vielleicht hat Apple auch gedacht, die Menschen wären schlauer.
Das klingt so, als würdest Du dich zu den Schlauen zählen …
Also bei dieser Methode schaut weder Mensch noch Bilderkennung auf die Bilder um den Hashwert zu berechnen, den Client verlassen die Bilder nur verschlüsselt und nur bei übereinstimmenden Hashes in mehrfacher Zahl wird es untersucht.
Die Wahrscheinlichkeit zufällig übereinstimmender Hashes mit privaten Fotos ist ca. null.
Darum geht es doch überhaupt nicht. Es geht um den prinzipiellen rechtlichen Dammbruch, dass die Unantastbarkeit der (virtuellen) Wohnung aufgebrochen wird, insofern gegen meinen Willen auf meinem Rechner Prozesse laufen, die ich nicht abstellen kann und die sich anmaßen, mich (in irgendeinem Teilaspekt, der als solcher vollkommen nebensächlich ist) zu überwachen.
Die Motivation von Apple das zu kommunizieren: Transparenz und ein Hinweis: Nutzt unsere Software nicht für den Dreck!
Was „Dreck“ ist und was nicht, das zu entscheiden hat Apple keine Befugnis, und welchen „Dreck“ ich auf meinem Rechner habe geht Apple schlicht nichts an. Das nennt man Privatsphäre. Eine Privatsphäre, die mir nur gütig gestattet, was sowieso allgemein gebilligt wird, ist keine.
Denn es gefällt ihnen nicht, dass der Datenschutz genau diese Verwendung unterstützt.
Apple mag vieles nicht gefallen, was hat das mit den Nutzern zu tun? Apple ist doch keine moralische Instanz.

Die Entscheidung, im Einzelfall die grundgesetzlich garantierte Unverletzlichkeit der Wohnung aufzuheben, unterliegt in einem Rechtsstaat der Jurisdiktion und niemandem sonst.
Denn das Argument mit der Stattskontrolle, ach... das geht doch sowieso OHNE dass man es mitteilt bei jedem Closes Source-System.
Das ist ein absurdes Argument. Etwas wird nicht deshalb weniger problematisch, weil es auch andere Probleme gibt.

Und Du übersiehst völlig den sozialpsychologischen Aspekt der schrittweisen Gewöhnung. Selbst wenn andere Überwachung stattfinden sollte, so gibt es bislang doch noch jedes Mal einen Aufschrei, wenn das bekannt wird. Bei einer Funktion, deren Existenz öffentlich bekannt ist, wird dieser Aufschrei allmählich verebben. Ziel erreicht.
Not every story must end with a battle (Ophelia, in der umwerfend guten feministischen Adaption des Hamlet-Stoffes in dem Film „Ophelia“)
+11
Weia
Weia06.09.21 16:48
Borimir
wäre es nicht möglich, die Daten zu Apple zu übertragen (in einen "allgemeinen Bereich")....dann scannen ...dann in den verschlüsselten User-Bereich übertragen?
Natürlich wäre das möglich, aber dann ist es halt keine Ende-zu-Ende-Verschlüsselung mehr und alles, was keine Ende-zu-Ende-Verschlüsselung ist, ist letztlich gar keine Verschlüsselung.

Aber die Hälfte der Gehrinwäsche hat bei Dir ja offenbar bereits gegriffen: dass gescannt werden soll, stellst Du schon gar nicht mehr infrage. Man könnte das ja auch einfach ganz bleiben lassen …

Rechtlich entstünde Apple dadurch gar kein Problem, denn sie können nicht dafür belangt werden, etwas auf ihren Cloud-Servern zu speichern, dessen Inhalt sie nicht kennen können. Sie speicherten lediglich unleserliche Bits und Bytes.
Borimir
Naja, ich dachte schon an (von Apple) verschlüsselter Übertragung in einen geschützen "Wartebereich". Und wenn dann nichts an den Fotos auszusetzen ist gehen die in den für Apple nicht mehr einzusehenden Bereich. Bin ich da zu naiv?
Ja.

Wer bitteschön bestimmt, was an irgendwelchen Daten auszusetzen ist? Apple hat an den Daten seiner Kunden schlicht gar nichts „auszusetzen“.

Verbrechensbekämpfung ist Aufgabe staatlicher Stellen, die unter Gewaltenteilung und strikter Kontrolle arbeiten müssen. Apple ist ein Privatunternehmen, das irgendwelchen Mitarbeitern, die keinerlei demokratische Legitimation besitzen, entsprechende Aufgaben überträgt. Das wäre ein rechtlicher Dammbruch!
Not every story must end with a battle (Ophelia, in der umwerfend guten feministischen Adaption des Hamlet-Stoffes in dem Film „Ophelia“)
+10
Borimir
Borimir06.09.21 16:59
"Aber die Hälfte der Gehrinwäsche hat bei Dir ja offenbar bereits gegriffen: dass gescannt werden soll, stellst Du schon gar nicht mehr infrage. Man könnte das ja auch einfach ganz bleiben lassen …"

Nö...mir ging es jetzt tasächlich um das "Machbare". Ich stehe auf dem Standpunkt das Private Daten privat sind, punkt. Meine Fotos, Kontakte, Kalender, Dokumente vertraue ich meinem Synology Server an. Bei E-Mail nutze ich einen Deutsche Anbieter der sich strikt an Deustches Recht in Sachen Datenschutz hält.
+4
Weia
Weia06.09.21 17:00
zactech
Denn andere führen es einfach ohne Salamitaktik im Verborgenen ein. Und die lachen sich gerade schlapp über die Diskussion um Apple.
Andere führen gerade im Verborgenen lokale Scans auf den Geräten der Nutzer ein? (Nur darum geht es hier.) Irgendein Indiz dafür?

Und welche Motivation sollten sie haben, das im Verborgenen zu tun? Alles Kontrollfreaks und rigide Charaktere? So rigide, dass sie daraus sogar Lustgewinn schöpfen? Ei der Daus …

Außerdem unterschätzt Du vollkommen die gesellschaftliche Funktion von Öffentlichkeit. Was im Geheimen geschieht, ist schon von daher gesellschaftlich nicht legitimiert und wird heftige Reaktionen auslösen, wenn es bekannt wird.

Ganz anders angekündigte Aktionen: Die konditionieren die Öffentlichkeit und lassen Empörung dadurch austrocknen.
Not every story must end with a battle (Ophelia, in der umwerfend guten feministischen Adaption des Hamlet-Stoffes in dem Film „Ophelia“)
+6
Weia
Weia06.09.21 17:06
janstolle
Leider hat das ganze Client-seitig echt einen unangenehmen Beigeschmack, vor allem wenn die Sachen nicht komplett open source sind und man einsehen kann was dort geschieht.
Die Sachen können ja prinzipbedingt nicht Open Source sein, sonst könnte man sie (jedenfalls auf Macs) ja abstellen. Der Verlust der Autonomie über den eigenen Rechner ist Teil des Problemkerns.
Not every story must end with a battle (Ophelia, in der umwerfend guten feministischen Adaption des Hamlet-Stoffes in dem Film „Ophelia“)
+9
zactech06.09.21 17:26
Weia
zactech
Vielleicht hat Apple auch gedacht, die Menschen wären schlauer.
Das klingt so, als würdest Du dich zu den Schlauen zählen …
Jo, danke gleichfalls...
Weia
Also bei dieser Methode schaut weder Mensch noch Bilderkennung auf die Bilder um den Hashwert zu berechnen, den Client verlassen die Bilder nur verschlüsselt und nur bei übereinstimmenden Hashes in mehrfacher Zahl wird es untersucht.
Die Wahrscheinlichkeit zufällig übereinstimmender Hashes mit privaten Fotos ist ca. null.
Darum geht es doch überhaupt nicht. Es geht um den prinzipiellen rechtlichen Dammbruch, dass die Unantastbarkeit der (virtuellen) Wohnung aufgebrochen wird, insofern gegen meinen Willen auf meinem Rechner Prozesse laufen, die ich nicht abstellen kann und die sich anmaßen, mich (in irgendeinem Teilaspekt, der als solcher vollkommen nebensächlich ist) zu überwachen.
Sorry, das ist doch längst passiert. 95% der Android-User haben wahrscheinlich keine Ahnung, welche ihrer Daten lokal und welche in der Cloud liegen und wofür ihre Daten sonst noch genutzt werden. Effektiv sind viele Systeme ohne Cloud nicht nutzbar. Warum haben nach Snowden mehrere Anbieter hintertürfreier Mailverschlüsselungsdienste aufgegeben (weil sie sonst zu diesen gezwungen worden wären). Alle Softwareunternehmen, die in China &Co Dienste anbieten, haben auch Hintertürtechnik im Einsatz. Der einzige Unterschied ist, dass auf diesem Apple-"Dammbruch" ein Schild steht.
Weia
Die Motivation von Apple das zu kommunizieren: Transparenz und ein Hinweis: Nutzt unsere Software nicht für den Dreck!
Was „Dreck“ ist und was nicht, das zu entscheiden hat Apple keine Befugnis, und welchen „Dreck“ ich auf meinem Rechner habe geht Apple schlicht nichts an. Das nennt man Privatsphäre. Eine Privatsphäre, die mir nur gütig gestattet, was sowieso allgemein gebilligt wird, ist keine.
[/quote]
Da es sich nur um einen Abgleich mit bekannten Drecksinhalten handelt, muss Apple hier auch gar nichts entscheiden. Und was diesbezüglich Dreck ist und was nicht, das ist bereits geregelt.
Mir scheint hier, du hast die Technik nicht ganz verstanden, denn es findet keine Bewertung deiner Inhalte statt. Um einen Hash zu berechnen, muss niemand das Bild sehen. Und wenn der Nutzer ganz klar BEKANNTE KiPobilder hat, interessiert mich auch seine Privatsphäre nicht. Da werte ich die Interessen des Opfers höher.
Weia
Denn es gefällt ihnen nicht, dass der Datenschutz genau diese Verwendung unterstützt.
Apple mag vieles nicht gefallen, was hat das mit den Nutzern zu tun? Apple ist doch keine moralische Instanz.
Aber sie möchten keine unmoralische Instanz in Form eines Mittäters sein. Das ist ähnlich zu einem Sportwaffenhersteller. Aber dessen zweckentfremdeten illegalen Einsatz kann man wenigstens sehen.
Weia
Die Entscheidung, im Einzelfall die grundgesetzlich garantierte Unverletzlichkeit der Wohnung aufzuheben, unterliegt in einem Rechtsstaat der Jurisdiktion und niemandem sonst.
Wenn die Software das bekanntermaßen tut und dabei legal ist, kann die Aussage nicht zutreffen.
Weia
Denn das Argument mit der Stattskontrolle, ach... das geht doch sowieso OHNE dass man es mitteilt bei jedem Closes Source-System.
Das ist ein absurdes Argument. Etwas wird nicht deshalb weniger problematisch, weil es auch andere Probleme gibt.
Das sind aber keine anderen, sondern die gleichen Probleme, die eigentlich auch bekannt sind aber vom User ignoriert werden. Und eigentlich ist es sogar besser wenn es wenigstens transparent ist, dann könnte man sich seinen Diensteanbieter entsprechend selektieren. Die einzige Erkenntnis hieraus ist: Bloß nicht zu viel verraten, was alles erfasst wird. Alles richtig gemacht Google, Amazon und Co!
Weia
Und Du übersiehst völlig den sozialpsychologischen Aspekt der schrittweisen Gewöhnung. Selbst wenn andere Überwachung stattfinden sollte, so gibt es bislang doch noch jedes Mal einen Aufschrei, wenn das bekannt wird. Bei einer Funktion, deren Existenz öffentlich bekannt ist, wird dieser Aufschrei allmählich verebben. Ziel erreicht.
[/quote]
Du sagst es ja selbst, erst der Aufschrei, danach verebbt es. Weil es aus dem Fokus verschwindet: Was ich nicht weiß (oder vergessen hab), mach mich nicht heiß.
Daher gehen die User in der Konsequenz zum Anbieter der es nicht thematisiert, geholfen hat es dann nicht.

Besser wären Pflichtangaben zur Datenverarbeitung in einem übersichtlichen Nutriscore-Label zu jeder Software. Bei jeder Webseite erfährt man mehr über die Datenverarbeitung als bei einem Clientprogramm oder gar Betriebssystem. Oder hat hier einer die EULA gelesen?
-8
zactech06.09.21 17:34
Weia
zactech
Denn andere führen es einfach ohne Salamitaktik im Verborgenen ein. Und die lachen sich gerade schlapp über die Diskussion um Apple.
Andere führen gerade im Verborgenen lokale Scans auf den Geräten der Nutzer ein? (Nur darum geht es hier.) Irgendein Indiz dafür?

https://blog.notebooksbilliger.de/facebook-scannt-bald-die-smartphone-galerie-nach-bilder-eurer-freunde/
+4
Weia
Weia06.09.21 17:56
zactech
Weia
zactech
Vielleicht hat Apple auch gedacht, die Menschen wären schlauer.
Das klingt so, als würdest Du dich zu den Schlauen zählen …
Jo, danke gleichfalls...
Bei mir stimmt es aber.
Weia
Darum geht es doch überhaupt nicht. Es geht um den prinzipiellen rechtlichen Dammbruch, dass die Unantastbarkeit der (virtuellen) Wohnung aufgebrochen wird, insofern gegen meinen Willen auf meinem Rechner Prozesse laufen, die ich nicht abstellen kann und die sich anmaßen, mich (in irgendeinem Teilaspekt, der als solcher vollkommen nebensächlich ist) zu überwachen.
Sorry, das ist doch längst passiert.
Und, bewirbst Du dich gerade um den Master of Fatalism-Orden?
Der einzige Unterschied ist, dass auf diesem Apple-"Dammbruch" ein Schild steht.
Das ist aber ein sehr wichtiger Unterschied in Bezug auf die öffentliche Wahrnehmung.
Da es sich nur um einen Abgleich mit bekannten Drecksinhalten handelt, muss Apple hier auch gar nichts entscheiden.
Aber selbstverständlich muss Apple das. Es muss sich entscheiden, Erfüllungsgehilfe staatlicher Exekutive zu sein.
Und was diesbezüglich Dreck ist und was nicht, das ist bereits geregelt.
Damit muss man aber nicht einverstanden sein. Die Unverletzlichkeit der Wohnung wurde ins Grundgesetz auch und gerade unter dem Gesichtspunkt eingeführt, einen Freiraum gegenüber der öffentlichen Ordnung darzustellen. Bittere Erfahrungen, was passiert, wenn dieser Freiraum verletzt wird, gab es schließlich genug.
Mir scheint hier, du hast die Technik nicht ganz verstanden
Doch, habe ich.
denn es findet keine Bewertung deiner Inhalte statt.
Das ist mir völlig egal. Es geht um die Anmaßung, mich in meinem privaten Freiraum anlasslos zu kontrollieren.
Und wenn der Nutzer ganz klar BEKANNTE KiPobilder hat, interessiert mich auch seine Privatsphäre nicht.
Und genau das ist der Punkt, wo wir uns fundamental unterscheiden.

Die Unverletzlichkeit der Wohnung gilt (wie alle Grundrechte) auch für Straftäter, bis ein richterlicher Durchsuchungsbeschluss aufgrund spezifischer Verdachtsmomente das einschränkt. Wenn Du das aufgibst, gibst Du den Rechtsstaat auf.

Das ist der Punkt, wo Deine Klugheit offenkundig endet.
Da werte ich die Interessen des Opfers höher.
Keinem Missbrauchsopfer wird damit geholfen; der Missbrauch ist bereits geschehen. Im übrigen kannst Du die Integrität des Rechtsstaates nicht tragischen Einzelfällen opfern. Das ist ja genau das Infame daran, lautstark die Kinderpornographie als Banner vor sich herzutragen. Kindesmissbrauch findet jeder schrecklich; da setzt dann gerne mal das Hirn aus und damit kann man arbeiten.
Aber sie möchten keine unmoralische Instanz in Form eines Mittäters sein.
Dann sollen sie in ihrem Hoheitsgebiet, der Cloud, scannen, aber nicht in meine (virtuelle) Wohnung eindringen. Um genau diese Grenzüberschreitung geht es doch.

Außerdem kann man kein Mittäter bei etwas sein, von dem man (da verschlüsselt) gar nichts wissen kann.
Weia
Die Entscheidung, im Einzelfall die grundgesetzlich garantierte Unverletzlichkeit der Wohnung aufzuheben, unterliegt in einem Rechtsstaat der Jurisdiktion und niemandem sonst.
Wenn die Software das bekanntermaßen tut und dabei legal ist, kann die Aussage nicht zutreffen.
Wenn das legalisiert wird, sind wir kein Rechtstaat mehr. Noch ist es nicht soweit.
Besser wären Pflichtangaben zur Datenverarbeitung in einem übersichtlichen Nutriscore-Label zu jeder Software.
Das wäre vielleicht keine schlechte Idee, solange es irgendwie glaubhaft ist. Ich meine, ausgerechnet Apple führt parallel zu ihrer Überwachungsinitiative sowas Ähnliches ja im App Store ein …

Es ist ein Jammer, dass die Piratenpartei mittlerweile vollkommen marginalisiert ist. Die wäre jetzt bitter nötig.
Not every story must end with a battle (Ophelia, in der umwerfend guten feministischen Adaption des Hamlet-Stoffes in dem Film „Ophelia“)
+5
Borimir
Borimir06.09.21 18:07
Weia
Es ist ein Jammer, dass die Piratenpartei mittlerweile vollkommen marginalisiert ist. Die wäre jetzt bitter nötig.

Tja, wäre schön, wenn das dafür nicht extra einer Patei bedürfe. Ein Trauerspiel dass so viele Parteien auf diesem Auge blind sind (sein wollen?).
+5
zactech06.09.21 18:13
@Weia

ich erspare uns ein weiteres Verschachteln der quotes, indem ich den Kern meiner Aussage mal so zusammenfasse:

Ich persönlich würde eher ein Appledevice nach Einführung dieser kommunizierten Funktion nutzen, als eines von Google, MS, Facebook, Amazon, Huawai, etc., denen ich zusammenfassend weniger traue.

Ergänzend stelle ich noch fest, dass Privatheit bei Geräten mit Internetanschluss eine Illusion ist. Aber wie uns die Matrix schon gelehrt hat: "Ignorance is Bliss!"

Den Fatalismusorden nehme ich aber gerne an
+2
heubergen06.09.21 19:11
Einen grösseren Krebs als die EFF habe ich schon lange nicht mehr gesehen. Verhindern jede Neuigkeit weil sie am liebsten wieder das Internet aus den 90er haben möchte. Alles gratis, ohne Werbung und ohne Tracking. Kapitalismus sagt nein.
-22
Weia
Weia06.09.21 22:49
heubergen
Kapitalismus sagt nein.
Was hat Kapitalismus mit einem Überwachungsstaat zu tun?
Not every story must end with a battle (Ophelia, in der umwerfend guten feministischen Adaption des Hamlet-Stoffes in dem Film „Ophelia“)
+2
Whizzbizz
Whizzbizz07.09.21 08:54
zactech
Wegen Apples Ankündigung z.B. zu Google oder Microsoft zu wechseln ist einfach nur unglaublich naiv. Und dann dazu am besten Fotos bei Facebook posten und WhatsApp nutzen, aua.
Bin dabei. Immerhin sind es jetzt nur noch 7 Abwärtsdaumen…
Reflect. Repent. Reboot. - Order Shall Return
-1
Whizzbizz
Whizzbizz07.09.21 09:07
zactech
@Weia

Ergänzend stelle ich noch fest, dass Privatheit bei Geräten mit Internetanschluss eine Illusion ist.

Bin schon weder dabei…
Reflect. Repent. Reboot. - Order Shall Return
-2
Unwindprotect08.09.21 11:55
In den allermeisten Fällen war "clientseitige Berechnung" bei Apple-Geräten ja tatsächlich die Lösung für Datenschutzprobleme anderer Hersteller. Beispiele dafür sind die Gesichtserkennung in Fotos, Objekterkennung in Fotos und immer mehr nun auch Siri. Apple versucht also seit geraumer Zeit Berechnungen auf Nutzerdaten auf die Geräte zu bringen.

Meine Vermutung ist, dass dieses CSAM-Scanning, das bei vielen Anbietern eben im Rechenzentrum erfolgt, auch nach derselben Methode als Variante mit besserem Datenschutz angepreist werden sollte. Vermutlich haben deswegen die verantwortlichen Teams das Problem darin nicht gesehen.

Der Unterschied zu den anderen Features ist eben schlicht, dass die Geräte nicht _für mich_ Dinge lokal berechnen sondern potentiell für jemand anderen. Ohne eigene Kontrolle würde mein eigenes Gerät also plötzlich private Daten an eine andere Stelle weiterleiten - und das nicht zu sowas wie "Werbezwecke" sondern zur Strafverfolgung. Das sich das in den Ohren der Nutzer grauenhaft anhört sollte einleuchten. Auch wenn man sich selbst sicher ist, nichts illegales zu machen, hat man dennoch den Beigeschmack dessen, das etwas schiefgehen könnte und man irrtümlicherweise Probleme kriegt.

Ich hoffe entsprechend auch, dass Apple diese Maßnahme auch einfach wieder begräbt - das würde den Mühsam aufgebauten Ruf als Anbieter von Geräten mit hohem Datenschutz zerstören.
+2

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.