Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Foto-Analyse gegen Kindesmissbrauch: Apple erklärt, warum CSAM-Scans begraben wurden

Apple führte in iOS 15.2 mit der sogenannten Kommunikationssicherheit ein neues Feature ein, welches Kindern den Anblick unangemessener Inhalte ersparen soll, also etwa Fotos von nackten Personen oder Körperteilen. Wenn die Funktion aktiviert ist, untersuchen iPhone und iPad empfangene Nachrichten auf solche Darstellungen, stellen entsprechende Bilder nur verschwommen dar und geben einen Warnhinweis aus. In iOS 17, das in wenigen Wochen erscheint, weitet Apple das Feature auf andere Apps aus und stellt auch Erwachsenen die Möglichkeit zur Verfügung, sich vor nackten Tatsachen die Augen verschließen zu lassen (siehe ).


Kinderschutzgruppe will Druck auf Apple ausüben
Eine weitere Maßnahme, die der Bekämpfung sexuellen Missbrauchs von Kindern dienen sollte, zog Apple nach heftigen Protesten von Datenschützern und Sicherheitsexperten allerdings zurück. Das Unternehmen hatte geplant, von Nutzern angefertigte Fotos vor dem Hochladen nach iCloud mit den Hashes bekannter illegaler Bilder abzugleichen und die Funde einer Kinderschutzorganisation zu melden. Apple beerdigte das Vorhaben im Dezember 2022 endgültig (siehe ), was einer unter dem Namen Heat Initiative auftretenden Gruppe überhaupt nicht gefiel. Die Kinderschützer teilten dem kalifornischen Unternehmen vor Kurzem mit, sie würden eine Kampagne starten, um die Einführung der sogenannten CSAM-Scans durch öffentlichen Druck auf Apple zu erzwingen.

Apple: Automatische Scans stellen Angriffsvektor dar
Apple reagierte auf die Ankündigung der Heat Initiative und erläuterte die Beweggründe für die Abkehr von den lokalen Untersuchungen auf illegales Material jetzt in einem Schreiben, das Wired vorliegt. Kinderpornografisches Material sei abscheulich und man fühle sich verpflichtet, die Kette der Gewalt und Beeinflussung zu durchbrechen, welcher die Opfer ausgesetzt seien, schreibt Apples Datenschutz-Chef Erik Neuenschwander. Automatische Scans der von den Nutzern in iCloud gespeicherten privaten Daten stellten allerdings einen neuen und gefährlichen Angriffsvektor dar, der von Kriminellen ausgenutzt werden könnte. Darüber hinaus sei eine solche Maßnahme womöglich das Einfallstor für eine umfassende Überwachung der Nutzer. Neuenschwander zufolge könnte sie zudem weitere Begehrlichkeiten wecken, etwa die Analyse aller verschlüsselten Nachrichten.

Unternehmen will Sicherheit der Nutzer nicht gefährden
Apple habe sich entschieden, die lokalen Scans nicht einzuführen, weil diese Sicherheit und Privatsphäre der Nutzer gefährdet hätten. Das Unternehmen macht sich damit offiziell die Argumente zu eigen, welche Datenschützer und Sicherheitsforscher bereits vor zwei Jahren vorgebracht hatten. Apple setzt nach eigenen Angaben künftig auf einen anderen Ansatz im Hinblick auf den Schutz von Kindern vor sexuellem Missbrauch. Das Unternehmen will unter anderem Opfer verstärkt auf Hilfsangebote aufmerksam machen und auf die Möglichkeit hinweisen, die zuständigen Strafverfolgungsbehörden einzuschalten.

Kommentare

haschuk01.09.23 14:02
Warum kommt mir die Begründung bekannt vor. Ähm, ja. Fast den gleichen Inhalt hatte ich, wie Tausende andere auch, schon vor 1,5 Jahren angemerkt.
+3
Metty
Metty01.09.23 14:17
Das ist Apple sicherlich nicht ganz leicht gefallen, aber es ist der richtige Schritt.
Wenn einmal ein Mechanismus etabliert wurde, um Fotos nach bestimmten Inhalten zu durchsuchen, werden totalitäre Staaten vorschreiben nach was alles gesucht werden soll und an wen es zu melden ist.
Besser Apple lässt die Büchse der Pandora zu.
+20
Nebula
Nebula01.09.23 14:34
Metty
Wenn einmal ein Mechanismus etabliert wurde, um Fotos nach bestimmten Inhalten zu durchsuchen,

Den Mechanismus gibt's mit Live-Text und der Objekterkennung doch längst.
»Wir werden alle sterben« – Albert Einstein
+1
Mister7901.09.23 14:43
Die Kinderschützer teilten dem kalifornischen Unternehmen vor Kurzem mit, sie würden eine Kampagne starten, um die Einführung der sogenannten CSAM-Scans durch öffentlichen Druck auf Apple zu erzwingen.

Echt jetzt?

Interessant wäre mal gewesen wie hoch die Anzahl so sein wird, die dann irrtümlich eine Anzeige bekommen haben oder dessen Ruf ruiniert wurde.

Die Organisation ist mir schon suspekt. Mir ist jede Organisation suspekt, welche durch Drohungen Druck ausüben wollen um ein Ziel zu erreichen.

Am Ende des Tages ist es eingestellt und auch gut so.

Was hier aber nicht beschrieben und berücksichtigt wurde, MS lässt eine ähnliche KI durch das OneDrive laufen. Natürlich auch nach der Art Microsoft, gibt es keine Angabe von Gründen wenn ein Konto gesperrt wurde. Man verliert bei MS dann alles.Es gibt da auch keinen Support. Wie beim Herrn Dr. Windows so passend berichtet wurde, gesperrt ist gesperrt, selbst wenn bewiesen wurde das es zu Unrecht passiert ist.

Und wie immer und auch in der Politik in Deutschland, die Kinder, immer sind es die Kinder warum eine Überwachung/Kontrolle XY eingeführt werden soll.
+6
Retrax01.09.23 14:56
Mister79
Die Kinderschützer teilten dem kalifornischen Unternehmen vor Kurzem mit, sie würden eine Kampagne starten, um die Einführung der sogenannten CSAM-Scans durch öffentlichen Druck auf Apple zu erzwingen.

Echt jetzt?
Naja, kann ich mir gut vorstellen.
Es wird aber im Sande verlaufen.
"CSAM-Scans" und "öffentlicher Druck" beißt sich.
Die Thematik ist viel zu technisch um eine signifikante Größe des gesellschaftlichen Querschnitts hinter sich zu vereinen.
+2
Metty
Metty01.09.23 15:56
Nebula
Den Mechanismus gibt's mit Live-Text und der Objekterkennung doch längst.
Der kleine Unterschied: das bleibt alles auf Deinem Gerät. Der CSAM-Scan wäre über die Bilder auf dem Gerät und in der iCloud gelaufen und hätte ohne Vorwarnung an den Betroffenen Meldungen an Dritte weiter gegeben, was einer Vorverurteilung gleich kommt.

Ein einmal erkanntes Bild wäre dann an eine Meldestelle für eine manuelle Prüfung weiter gegeben worden. Da landen dann schnell mal private Bilder, die keine Staftat darstellen.

Diese Mechanismen haben so viel Missbrauchspotential. Stell Dir mal vor der Bilder-Hash kommt von Behörden totalitärer Staaten. Am Hash selbst lässt nicht mehr erkennen was auf dem Bild zu sehen ist. Apple hätte also den Hash irgend welcher Bilder angewandt und die Behörden hätten Meldungen bekommen wer diese Bilder auf seinem iPhone hat. Egal was deren Inhalt ist. Du hast Photos von Oppositionellen ... dumm gelaufen. Du hast eine Karrikatur von einem saudischen Prinzen auf dem iPhone ... da brauchst Du Dir um Deine nächsten Kopfschmerzen keine Gedanken mehr zu machen.
+12
Frank Tiger
Frank Tiger01.09.23 16:10
Es ist richtig und gut, dass Apple diese CSAM-Scans eingestellt hat, denn Sicherheit geht vor und es macht zudem keinen Sinn alle Nutzer unter Generalverdacht zu stellen.
Auch wenn ich nicht weiß, wie genau das Scannen eines Foto technisch funktioniert, vermute ich doch, dass ein nur leicht bearbeitetes Foto einen völlig anderen Hash liefern würde, als vom Referenz-Foto, gegen das man prüft. Mit solchen Scans findet man nur die technischen Laien.
Hintermänner und Profis in diesem dreckigen Geschäft wird man so niemals finden. Sie werden Ihren Kunden immer neue technische Möglichkeiten schaffen, um nicht erwischt zu werden. Das einzige, was hilft, ist mühsame polizeiliche Kleinarbeit, die von Zeit zu Zeit dann nennenswerte Erfolge liefert.
+3
Werk01.09.23 17:31
Es ist schade, dass damit ein effektives Mittel für den Kampf gegen Missbrauchsabbildungen im Netz wegfällt. Es würde die Verbreitung eindämmen. Was mich besonders am Widerstand dagegen beschäftigt ist die Frage, warum sich so viele Menschen bei Digitalangeboten arglos anmelden (und ihre Daten hergeben) aber sobald es um dieses Thema geht, kommen die Bedenken.
Was sind denn die alternativen Möglichkeiten?
-17
Mister7901.09.23 17:57
Werk
Es ist schade, dass damit ein effektives Mittel für den Kampf gegen Missbrauchsabbildungen im Netz wegfällt. Es würde die Verbreitung eindämmen. Was mich besonders am Widerstand dagegen beschäftigt ist die Frage, warum sich so viele Menschen bei Digitalangeboten arglos anmelden (und ihre Daten hergeben) aber sobald es um dieses Thema geht, kommen die Bedenken.
Was sind denn die alternativen Möglichkeiten?

Du hast nichts verstanden. Würde es einen Führerschein zum online gehen geben, Glückwunsch, du wärst weiter offline.

Was gibt es bei dem Missbrauchsmöglichkeiten bei diesem Vorgehen nicht zu verstehen?

Ich zitiere mal von weiter oben

Diese Mechanismen haben so viel Missbrauchspotential. Stell Dir mal vor der Bilder-Hash kommt von Behörden totalitärer Staaten. Am Hash selbst lässt nicht mehr erkennen was auf dem Bild zu sehen ist. Apple hätte also den Hash irgend welcher Bilder angewandt und die Behörden hätten Meldungen bekommen wer diese Bilder auf seinem iPhone hat. Egal was deren Inhalt ist. Du hast Photos von Oppositionellen ... dumm gelaufen. Du hast eine Karrikatur von einem saudischen Prinzen auf dem iPhone ... da brauchst Du Dir um Deine nächsten Kopfschmerzen keine Gedanken mehr zu machen.
+9
Nebula
Nebula01.09.23 18:04
Metty
Der kleine Unterschied: das bleibt alles auf Deinem Gerät. Der CSAM-Scan wäre über die Bilder auf dem Gerät und in der iCloud gelaufen und hätte ohne Vorwarnung an den Betroffenen Meldungen an Dritte weiter gegeben, was einer Vorverurteilung gleich kommt.

Das stimmt so nicht. Die Erkennung war bei Apples CSAM-Scan-Vorhaben rein lokal gedacht. Das war ja auch Teil der Aufregung, weil lokal (und falsch) Gescanntes dann unbemerkt "durchgestochen" wird. Eine Übertragung der Daten sollte erst erfolgen, wenn ein Schwellenwert überschritten wird. Apple hatte explizit vor, nicht jedes erkannte Bild sofort hochzuladen. Mit dem Verfahren wollte sie vermeiden, direkt auf den Servern scannen zu müssen. Ich war sogar überrascht, dass sie das bis dahin gar nicht längst getan haben, wo es doch alle anderen längst gemacht haben.
»Wir werden alle sterben« – Albert Einstein
+5
macuser22
macuser2201.09.23 22:23
Mister79
Werk
Es ist schade, dass damit ein effektives Mittel für den Kampf gegen Missbrauchsabbildungen im Netz wegfällt. Es würde die Verbreitung eindämmen. Was mich besonders am Widerstand dagegen beschäftigt ist die Frage, warum sich so viele Menschen bei Digitalangeboten arglos anmelden (und ihre Daten hergeben) aber sobald es um dieses Thema geht, kommen die Bedenken.
Was sind denn die alternativen Möglichkeiten?

Du hast nichts verstanden. Würde es einen Führerschein zum online gehen geben, Glückwunsch, du wärst weiter offline.

Was gibt es bei dem Missbrauchsmöglichkeiten bei diesem Vorgehen nicht zu verstehen?

Ich zitiere mal von weiter oben …
Werk hat alles richtig verstanden und stellt eine berechtigte Frage. Aber lassen wir das belanglose Persönliche.

Ich kenne bisher keinen Modus Operandi, der beides, Datenschutz und Datenzugriff bei berechtigtem Anlass vereint. Das wäre doch mal eine lukrative Marktlücke für den Digitalstandort Deutschland
Erkenne dich selbst –//– Nichts im Übermaß
-5
haschuk02.09.23 00:37
macuser22
Mister79
Werk
Es ist schade, dass damit ein effektives Mittel für den Kampf gegen Missbrauchsabbildungen im Netz wegfällt. Es würde die Verbreitung eindämmen. Was mich besonders am Widerstand dagegen beschäftigt ist die Frage, warum sich so viele Menschen bei Digitalangeboten arglos anmelden (und ihre Daten hergeben) aber sobald es um dieses Thema geht, kommen die Bedenken.
Was sind denn die alternativen Möglichkeiten?

Du hast nichts verstanden. Würde es einen Führerschein zum online gehen geben, Glückwunsch, du wärst weiter offline.

Was gibt es bei dem Missbrauchsmöglichkeiten bei diesem Vorgehen nicht zu verstehen?

Ich zitiere mal von weiter oben …
Werk hat alles richtig verstanden und stellt eine berechtigte Frage. Aber lassen wir das belanglose Persönliche.

Ich kenne bisher keinen Modus Operandi, der beides, Datenschutz und Datenzugriff bei berechtigtem Anlass vereint. Das wäre doch mal eine lukrative Marktlücke für den Digitalstandort Deutschland

Nein, Werk hat nichts verstanden, denn er würfelt 2 Ebenen durcheinander. Bzw. er unterstellt den Gegnern, den Bendenkenäußerer, dass sie selbst sorglos mit ihren Daten umgehen, ohne jeglichen Beleg dazu.

Über 90% der Bedenkenträger haben vor 1,5 Jahren bereits genau das geäußert, was Apple jetzt zugibt. CSAM ist ein potentieller Angriffsvektor, der Unbeteiligte zu Opfern machen kann. Und zwar genau dann, wenn CSAM missbraucht wird.

Ein kleines Gedankenspiel. Apple stellt fest, dass CSAM über die SIM-Schnittstelle manipuliert werden kann. Und möchte ein Security-Update dazu ausspielen. Gemäß Data Security Bill im Staat xyz muss jedoch jedes Security-Update von der Behörde Halali genehmigt werden. Dazu muss natürlich dokumentiert werden, was geschlossen werden soll. Da das Land xyz aber bereits diese Lücke aktiv ausnutzt um Daten gegen Regierungsgegner, Homosexuelle, Raucher, Alkoholgenießende, Musiker, Literaten, kritische Journalisten, Atheisten zu sammeln, wird Apple verweigert, im Land xyz dieses Update auszuspielen.

Ein undenkbares Szenario? Willkommen im Jahr 2023. Glaubt wirklich jemand, sollte dies Schule machen, dass dies nicht nach China, Russland, Türkei, Saudi-Arabien, Niger, Mali, Umgarn, Polen, ...., Deutschland weiterwandert?

CSAM im Bezug auf Kinderpornografie ist ja vielleicht ein löblicher Ansatz. Damit werden dann hmmm 10.000 Straftäter überführt. Die Geschäftemacher bleiben dann aber immer noch außen vor. Gleichzeitig eröffnet man einen Vektor, der potentiell 200 Millionen oben genannte zu Opfern machen könnte. Nein, da passt die Verhältnismässigkeit nicht. Nicht nur in Zeiten, in denen das Verständnis der Regierungen immer dunkler wird. Und wo immer hier auf unserer etwas helleren Insel vergessen wird, dass es in 2/3 aller Länder im Vergleich dazu schwarz ist. Wo eine Benennung eines Krieges als solcher zu 2 Jahren Haft in einem Straflager führen kann. Wo der Besitz der Karikatur eines Präsidenten zu 5 Jahren Haft wegen Terrorverdacht führen kann. Wo Homosexualität zur Todesstrafe führen kann.

Und genau diesen Kontext hat Werk in seinem Statement unterschlagen. Aber nicht nur er, deswegen ist das auch nichts persönliches.

Deinen Modus Operandi wird es nie geben. Denn eine ansatzlose Datensammlung, die auch noch manipuliert werden kann, steht immer im Gegensatz zum Freiheitsrecht des Einzelnen gemäß UN Menschenrechtscharta.
+7
Dunkelbier02.09.23 07:59
Werk
Es ist schade, dass damit ein effektives Mittel für den Kampf gegen Missbrauchsabbildungen im Netz wegfällt. Es würde die Verbreitung eindämmen. Was mich besonders am Widerstand dagegen beschäftigt ist die Frage, warum sich so viele Menschen bei Digitalangeboten arglos anmelden (und ihre Daten hergeben) aber sobald es um dieses Thema geht, kommen die Bedenken.
Was sind denn die alternativen Möglichkeiten?
Warum, glaubst Du, würde dadurch ein "echter" Schmutzfink je gefunden werden? Höchstens die ganz Dummen. Alle anderen benutzen einfach was anderes. Ist wie bei dem Thema End-To-End Verschlüsselung, die aufgebrochen werden soll. Ich würde einfach was anderes nehmen. Fertig.
+3
Mister7902.09.23 09:05
macuser22
Mister79
Werk
Es ist schade, dass damit ein effektives Mittel für den Kampf gegen Missbrauchsabbildungen im Netz wegfällt. Es würde die Verbreitung eindämmen. Was mich besonders am Widerstand dagegen beschäftigt ist die Frage, warum sich so viele Menschen bei Digitalangeboten arglos anmelden (und ihre Daten hergeben) aber sobald es um dieses Thema geht, kommen die Bedenken.
Was sind denn die alternativen Möglichkeiten?

Du hast nichts verstanden. Würde es einen Führerschein zum online gehen geben, Glückwunsch, du wärst weiter offline.

Was gibt es bei dem Missbrauchsmöglichkeiten bei diesem Vorgehen nicht zu verstehen?

Ich zitiere mal von weiter oben …
Werk hat alles richtig verstanden und stellt eine berechtigte Frage. Aber lassen wir das belanglose Persönliche.

Ich kenne bisher keinen Modus Operandi, der beides, Datenschutz und Datenzugriff bei berechtigtem Anlass vereint. Das wäre doch mal eine lukrative Marktlücke für den Digitalstandort Deutschland

Glückwunsch, du wärst ohne Führerschein auch offline.

Es wurde ja schon erläutert warum er völlig daneben liegt und das seine Frage und Unterstellung von Sorglosigkeit der Daten nichts mit dem Thema zu tun hat.

Es geht um das Missbrauchspotential. Das es nicht funktioniert zeigt MS mit seinen Kontensperrungen. Hier gibt es gutes Lesematerial auf drwindows.de und zugleich die Art Microsoft mit so einem Thema umzugehen.

Hier ist es ja noch schlimmer, der Scan erfolgt nicht auf OneDrive, sondern auf dem Gerät selbst. Wie viele Familien es wohl bei den Fotos der Kinder in Ungnade bringen würde? Es ist doch weiter oben sehr gut erklärt worden wie Regierungen mit den Hash bei Fotos Schindluder betreiben können. Unliebsame Fotos von Bärbock? Kein Problem, du landest bei Frau Faser und ihren neuen Gesetzen, China? Ohhhh landest wie sein Onkel vor einem Flugabwehrgeschütz? Kindern hilft sowas überhaupt nicht.

Berechtigt hat er lediglich gezeigt das er und scheinbar du es nicht verstehen was das Problem ist. Es geht nicht um die Anmeldung an Portal XY und seinen Personenbezogenen Daten.
+1
Mister7902.09.23 09:20
Ich schieb den Link von Dr Windows mal nach. 10 Min waren schon um:

https://www.drwindows.de/news/fotosammlung-auf-onedrive-erst-kam-die-kontosperre-dann-der-staatsanwalt

Heise berichtete auch und viele andere. Ja da sind ganz viele Kinder geschützt worden, ganz viele. Ich würde sagen, nicht mal eins aber hey, die hatten nichts zu verbergen, ist denen bestimmt egal gewesen jetzt alles mit der Staatsanwaltschaft klären zu können. Der Ruf bei den Nachbarn wenn morgens deine Türen aufgebrochen wurden, hey, alles gut, Hauptsache die Kinder, stimmt’s?

Die Leute haben sicher gerne ne Nacht im Knast verbracht, weil die Kinder…
+4
Werk02.09.23 20:15
Vielen Dank für Eure Gedanken zu meinem post. Ich danke auch jenen, die mich deswegen für einen Depp (Stichwort Führerschein) halten - vielleicht denken die ja nochmal nach. Würde mich freuen.

Ich bin kein Programmierer o.ä. , aber hinsichtlich Kindesmissbrauch online, grooming etc. ganz gut informiert. Und daher finde ich die reflexhafte Abwehr von technischen Möglichkeiten der Strafverfolgung insbesondere in diesem Themenfeld erschreckend, wenn keine Alternativen dazu genannt werden (können?).

Es geht auch nicht um „Schmutzfinken“ (der Begriff fiel hier auch, welch eine Verharmlosung), sondern um Straftäter und Straftäterinnen. Die „Profis“, das stimmt, haben sicher das knowhow, um einfache technische Hürden zu umgehen. Aber die meisten verfügen darüber nicht und könnten durch technische Maßnahmen abgeschreckt werden, zumindest bekanntes Material weiter zu verbreiten. Diese Szene lebt vom Austausch von Missbrauchsmaterial.

Natürlich können hash-Werte bekannter Abbildungen manipuliert werden. Aber die sind trotzdem ein wichtiges Instrument der Strafverfolgungsbehörden, die mangels absurd hoher Hürden bei der Verbindungsdatenspeicherung in D (Zeit) ohnehin im Hintertreffen sind. Dank Hinweisen aus dem Ausland gibt es bescheidene Fortschritte.
Es greift zu kurz, mit dem Hinweisen auf Schurkenstaaten, Journalisten und Menschenrechtler zu argumentieren. Damit kann man sich vielleicht einen schlanken Fuß machen und sich vor der Verantwortung drücken. Aber betroffenen Kindern, und das sind sehr viele, hilft man damit bewußt nicht. Die haben lebenslang. Deswegen habe ich nach konkreten Vorschlägen gefragt.
-4
Mister7903.09.23 00:05
Immer noch nicht verstanden das Menschen durch Manipulation zu Schaden kommen und sterben.

Im Namen der Kinder kann sowas nicht gerechtfertigt werden. Die Bergerden solcher Techniken und deren Missbrauch zeigen sich ja auch in Deutschland.

Somit ja, ich bleib bei dem Thema Führerschein. Selbst Apple gibt es zu, dass der Missbrauch höher wirkt als der Nutzen aber du scheinst es nicht zu sehen oder sehen zu wollen. Der positive Nutzen wiegt dem Missbrauch der Technik nicht auf, auch nicht für die Kinder oder im Namen der Kinder. Du ignorierst selbst die Probleme die sich bei MS und dem Scan von OneDrive ergeben. Du ignorierst es förmlich. Bis jetzt kamen nur Unschuldige zu Schaden. Wäre es anders, wäre die PR von MS schon im vollen Tempo.

Apple hat die richtige Entscheidung getroffen.
+1
Performant8403.09.23 01:15
Werk
Und daher finde ich die reflexhafte Abwehr von technischen Möglichkeiten der Strafverfolgung insbesondere in diesem Themenfeld erschreckend, wenn keine Alternativen dazu genannt werden (können?).
Ganz einfacher Reflex: Ich habe mit Kinderpornographie nichts am Hut. Und ich will auch nicht anlasslos deswegen durchsucht und durchleuchtet werden (mit den entsprechenden potentiellen Kollateralschäden), als ob ich ja doch irgendwie was haben könnte.
Werk
Aber betroffenen Kindern, und das sind sehr viele, hilft man damit bewußt nicht. Die haben lebenslang. Deswegen habe ich nach konkreten Vorschlägen gefragt.
Betroffenen Kindern hilft man auch nicht damit, dass man Millionen von Handynutzern anlasslos ausspioniert und deren Fotos scannt. Selbst wenn man da wirklich einen fängt, der entsprechende Bilder auf seinem iPhone hat: Es sind nur Bilder, die schlussendlich einfach nur von einem Gerät gelöscht werden - das hilft einem einmal missbrauchten Kind ziemlich wenig.

Es ist durchaus richtig, den Besitz solcher Werke unter Strafe zu stellen, um die Zugänglichkeit, Verbreitung und Nachfrage möglichst auszutrocknen - und mittelbar die Produktion davon einzudämmen.

Ein anlassloser Scan von persönlichen Daten auf geschützten Geräten von Millionen Nutzern ist dazu aber unverhältnismässig.
+2
Mister7903.09.23 09:30
@performant84

Richtig, der Unterschied zu Apple und MS ist das MS in der Cloud scannt. Entstandene Schäden bei Personen hatte ich schon verlinkt.

Apple scannt auf dem Gerät weil Sie es laut eigener Werbung in der Cloud nicht mehr können, weil dort unter anderem Fotos verschlüsselt sind und Apple keinen Zugriff darauf hat.

Bei MS konnte man schon sehen zu was es geführt hat und welchen Ärger es Menschen gebracht hat. Besonders da MS an Aufklärung nicht interessiert ist und die Kommunikation mit MS ab diesem Punkt nicht gegeben ist bei Sperrung. Ganz schlimm scheint zu sein das MS nicht mit Hash arbeitet sondern eine KI automatisiert entscheidet und vorverurteilt. Wenn ich es richtig verstanden habe, es guckt dort kein Mensch drauf.

Wie dem auch sei, Apple hat richtig entschieden. Auf der einen Seite kann das öffnen von einem IPhone nicht verweigert werden um Waffenhändler oder Mörder zu überführen und auf der anderen Seite übernimmt ein US Aktienunternehmen das scannen von Geräten für die Behörde.

Wie irre es gerade läuft sehen wir an den Forderungen in GB… Diese Technik würde sich für Frau Faser und deren Vorhaben wunderbar eignen, hat nur mit Kindern nichts zu tun. Es eignet sich hervorragend um Menschen gezielt Mundtot zu machen.

Bedauerlich ist das Apple die Büxe jetzt hat, zwar doch verschlossen hält aber es wird schon Leute geben, die eine Herausgabe dieser erzwingen möchte. Ich wette es wird nicht die Organisation sein, sondern staatliche Stellen.

Ein Unternehmen welches so auf Datensicherheit abzielt hätte allein bemerken müssen was sie gerade tun und es eigentlich nicht entwickeln dürfen.
0
tolved03.09.23 13:58
Mister79
Entstandene Schäden bei Personen hatte ich schon verlinkt.

Welche Schäden denn bitte? Ein gesperrtes MS Konto wegen Verstoß gegen die AGB und eine Vorladung bei der Polizei wegen dem Foto eines nackten Kleinkinds aus der Familie, da fragt man sich schon, warum es überhaupt zu einer Vorladung gekommen ist.
+1
Dunkelbier03.09.23 19:01
Werk

Es geht auch nicht um „Schmutzfinken“ (der Begriff fiel hier auch, welch eine Verharmlosung), sondern um Straftäter und Straftäterinnen. Die „Profis“, das stimmt, haben sicher das knowhow, um einfache technische Hürden zu umgehen. Aber die meisten verfügen darüber nicht und könnten durch technische Maßnahmen abgeschreckt werden, zumindest bekanntes Material weiter zu verbreiten. Diese Szene lebt vom Austausch von Missbrauchsmaterial.
Daran erkannt man, dass du den Text nicht verstanden hast. Man muss nicht immer eine extreme Bezeichnung benutzen, um zu markieren, was gemeint ist.

Und abgeschreckt wird niemand, was glaubst Du wird zusagen als Disclaimer in entsprechenden Kreisen gehandelt werden würde?

Und zum Thema: Ich kenne ähnliche Fälle, da wurde von der Polizei sämtliche Telefone aller Schüler einer Klasse und Eltern beschlagnahmt, sowie deren Computer. Die liegen dann Monate lang in der Asservatenkammer. Für nix. Kein Einzelfall.

Findrdt Du das gut? Vor allem, wenn man beruflich auf diese Geräte angewiesen ist, bzw. diese sogar vom Arbeitgeber gestellt wurden.
+1

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.