Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Differential Privacy in iOS 10 optional und damit nicht verpflichtend

Mit der Vorstellung von Differential Privacy hat Apple eine neue Möglichkeit angekündigt, Nutzerstatistiken zu bestimmten Funktionen wie Siri und Wortvorschläge anonym und damit datenschutzkonform zu erfassen. Rückschlüsse auf einzelne Nutzer sollen durch absichtlich erzeugtes statistisches Rauschen nicht möglich sein. Im Vergleich zur bisherigen Erfassung von Nutzungsdaten bietet dieser Ansatz eine verbesserte Privatsphäre. Dennoch wird Apple die Datenerfassung weiterhin optional belassen. Gegenüber Medienvertretern hat Apple bestätigt, dass Nutzer der Aktivierung von Differential Privacy explizit zustimmen müssen.


Durch den neuen Ansatz könnten Nutzer aber eher gewillt sein, Informationen zu ihrem Nutzungsverhalten mit Apple zu teilen. Wichtig ist dabei auch die Aufklärung des Nutzer über die technischen Hintergründe des neuen Systems, welche wir in einem separaten Artikel näher beleuchtet haben. Kurz zusammengefasst bedeutet Differential Privacy, dass die konkreten Nutzungsdaten teilweise gekürzt oder gar nicht übertragen werden. Stattdessen kommen dann Zufallswerte zum Einsatz, womit man sich nie sicher sein kann, dass Daten tatsächlich durch den Nutzer erzeugt wurden. Zu bedenken ist allerdings die Neuheit des Verfahrens, wodurch bislang praktische Erfahrungswerte fehlen.

Kommentare

sierkb27.06.16 12:44
Wired (13.06.2016): Apple’s ‘Differential Privacy’ Is About Collecting Your Data—But Not ​Your Data

Lesenswert und erhellend, wie ich finde.


Auszug:
Wired
Apple, like practically every mega-corporation, wants to know as much as possible about its customers. But it’s also marketed itself as Silicon Valley’s privacy champion, one that—unlike so many of its advertising-driven competitors—wants to know as little as possible about you. So perhaps it’s no surprise that the company has now publicly boasted about its work in an obscure branch of mathematics that deals with exactly that paradox.

Federighi’s emphasis on differential privacy likely means Apple is actually sending more of your data than ever off of your device to its servers for analysis, just as Google and Facebook and every other data-hungry tech firm does.
[…]
In his keynote, Federighi said that Apple had given the University of Pennyslvania’s Roth a “quick peek” at its implementation of the mathematical techniques it used. But Roth told WIRED he couldn’t comment on anything specific that Apple’s doing with differential privacy. Instead, much like the techniques he’s helped to study and invent, Roth offered a general takeaway that successfully avoided revealing any details: “I think they’re doing it right.”

Kurz: Roth, der dieses theoretische Modell erdacht hat, weiß bisher a) nicht, ob und wie es in der Praxis tatsächlich durchführbar ist. Und b) hat er nach eigenem Bekunden offenbar lediglich mal eben kurz und oberflächlich drübergeschaut, was Apple ihm da zur Begutachtung der Implementierung seiner bisherig theoretischen Ideen vorgelegt hat. Und sagt dazu lapidar sinngemäß: "Ich denke, sie sind (was dieses von mir zusammen mit Microsofts Cynthia Dwork erdachte theoretische Modell angeht) auf dem richtigen Weg."

Das ist ja richtig viel, was er dazu bisher zu sagen hat. Und sehr vertrauenerweckend, was die Wirklichkeit angeht, wo sich dieses bis dahin in der Praxis noch nie getestete theoretische Denkmodell erstmal in der Praxis als wirkungsvoll und tragfähig erweisen muss. Oder ob die zugrundeliegende Theorie evtl. nicht sogar fehlerbehaftet oder gar falsch ist und neu überdacht werden muss (sowas ist immer möglich, so ist Wissenschaft eben).



9To5Mac (24.06.2016): Apple’s use of differential privacy in iOS 10 to drive AI will be opt-in, limited to four use cases at launch



recode (24.06.2016): Apple won’t collect your data for its AI services unless you let it
"Differential privacy" is Apple's way of collecting data without being totally creepy.
recode
[…]
While Apple is clearly pitching this as a just-right balance, it runs the risk of losing some of its privacy points while still not getting the kind of data it needs to truly rival Google and Facebook in the machine intelligence game.


Wo Apple bisher seine Daten nun herbekommt, die sie als Grundlage nutzen müssen, damit ihre Algorithmen überhaupt funktionieren können, liegt also immer noch im Unklaren. Einerseits sammelt Apple von nun an Nutzerdaten in einem Umfang wie niemals zuvor, analysiert sie, und gleichzeitig sagen sie, dass sie diese Nutzerdaten dann doch nicht nutzen. Wie soll dieses Paradoxon in der Praxis aufgelöst werden?
Johann Wolfgang von Goethe, Faust I
"Die Botschaft hör' ich wohl, allein mir fehlt der Glaube"

Woher weiß eine Gesichtserkennungs-Software, was ein Gesicht ist, wie es auszusehen hat, wenn man sie nicht vorher entsprechend trainiert und ihr sagt: "Das hier ist ein Gesicht. Die und die Merkmale hat es, darauf musst Du achten, diese Merkmale kannst/musst Du zu Rate ziehen, um daraus Schlüsse ziehen zu können". Wenn da keine Benutzer-Fotos verwendet werden oder in der Vergangenheit wurden, wessen Fotos dann? Und wer stellt wo die betreffenden Ergebnisse parat, sodass derlei Berechnungen nicht immer wieder aufs Neue durchgeführt werden müssen?

Je mehr man sich einliest in das was Apple da vorhat und das mal rezipiert, desto mehr Fragen stellen sich da eigentlich, wie sie das eigentlich technisch umsetzen wollen, ohne von ihrer bisherig propagierten Linie abweichen zu müssen. Da beißt sich die Katze in den Schwanz. Es kommt einer Quadratur des Kreises nahe. Theoretisch schön anzuhören bisher. Aber klappt es denn auch in der praktischen Umsetzung? Ohne bisherige Positionen aufzugeben oder aufzuweichen? Immerhin: Apple sammelt nun dafür Daten soviel wie nie zuvor. Und macht somit nichts anderes als die Konkurrenz auch. Nur mit dem Unterschied, dass die Konkurrenz da kein Geheimnis draus macht und offen dazu steht. Und das auch im Hinblick auf solche Dienste, die hier in Rede stehen, gut und nachvollziehbar begründen und rechtfertigen kann. Denn ganz ohne geht's einfach nicht.

Sind wir mal gespannt, ob Apple halten kann, was sie versprechen. Und ob das auch noch so stimmt und zutrifft wie sie einem glauben machen wollen, wenn man ihnen mal etwas genauer auf den Zahn fühlt und unter die Motorhaube guckt. Spannend.
0
TorstenW27.06.16 13:12
Ach es läuft doch wie immer bei den Datenkraken:

"Nein, wir sammeln keine Daten" "Wir sammeln nur ein paar Daten, die keine Rückschlüsse zulassen von wem sie stammen und du musst es manuell aktivieren" "Wir sammeln nur ein paar Daten, aber es ist standardmäßig aktiviert, wenn du es nicht möchtest, kannst du es abschalten" "Ja, wir haben alle deine Daten, danke"

Das alles über den Zeitraum von 5-10 Jahren gestreckt und kaum jemand wird sich beschweren..
0
Lerchenzunge27.06.16 14:14
@Sierkb

Da hast Du ja schön viel zusammengetragen, um den Eindruck zu erwecken, dass Apple ja nun das Gleiche machen würde, wie andere auch.

Nur: es ist nicht richtig.

Opt-in gibt es weder bei Android noch bei Microsoft. Bei Android müsste man alle Google Apps killen, oder eben explizit auf CyanogenMod wechseln - nur nutzen 95% Android (TM) mit allen Google Apps. Und bei Microsofts Win 10 sind die Opt-out Einstellungen bestenfalls rudimentär vorhanden, bzw. muss man sie erst finden.

Im Gegensatz dazu Apples Strategie: Opt-in (also explizite Freigabe durch den User), kein Geschäftskonzept, das auf die Verwertung von Daten basiert, und Apple zeichnet sich dadurch aus, dass sie explizit Daten nicht haben wollen, um Daten nicht an Behörden liefern zu können - und zu müssen.

Differential Privacy wird, so sieht es aktuell aus, eine Option sein, die es Nutzern ermöglicht freiwillig Daten zu liefern - ohne dadurch gläsern zu werden. Ich mache das z.B. freiwillig mit Gesundheitsdaten.

Wie gut Differential Privacy am Ende funktioniert, hängt vom Algorithmus ab - und der wird nun durch Dritte geprüft. Zweifellos wird Apple das System aber stetig verbessern und sicherstellen, dass die Anonymität gewahrt bleibt.

Ob und wie gut das gelingt, muss man sehen, deswegen ist Opt-in eben sehr wichtig.

Dass man durch Digital Privacy und geschickte Algorithmen die Anonymität des Anwenders tatsächlich wahren kann, hat Google mit seinem RAPPOR Konzept bewiesen - siehe Link unten - was sie aber nur in einem sehr begrenzten Bereich tatsächlich einsetzten, hingegen Apple das dem Interessierten großflächig zur Verfügung stellen will. Wichtig ist eben,,dass der Anwender das selber entscheiden können muss.

Hier eine interessante Ergänzung zum Thema von Matthew Green:

http://blog.cryptographyengineering.com/2016/06/what-is-differential-privacy.html

Es endet mit einer interessanten Zusammenfassung:

"So is Apple's use of DP a good thing or a bad thing?

As an academic researcher and a security professional, I have mixed feelings about Apple's announcement. On the one hand, as a researcher I understand how exciting it is to see research technology actually deployed in the field. And Apple has a very big field.

On the flipside, as security professionals it's our job to be skeptical -- to at a minimum demand people release their security-critical code (as Google did with RAPPOR), or at least to be straightforward about what it is they're deploying. If Apple is going to collect significant amounts of new data from the devices that we depend on so much, we should really make sure they're doing it right -- rather than cheering them for Using Such Cool Ideas. (I made this mistake already once, and I still feel dumb about it.)

But maybe this is all too "inside baseball". At the end of the day, it sure looks like Apple is honestly trying to do something to improve user privacy, and given the alternatives, maybe that's more important than anything else. "

Ein Ansatz, den man bei Google / Android und Microsoft / Win Phone bzw. Windows 10. nicht sehen dürfte.
0
sierkb27.06.16 15:57
Lerchenzunge
Da hast Du ja schön viel zusammengetragen, um den Eindruck zu erwecken, dass Apple ja nun das Gleiche machen würde, wie andere auch.

Dem ist auch so. Sie nähern sich dem auf gleich verschiedenen Feldern an. Um es, so zeigt es die Geschichte bisher jedes mal aufs Neue, am Schluss und unterm Strich genauso zu machen wie die anderen auch. Mitgenau denselben Nachteilen, die sie bei anderen zuvor begrittelt haben und kaum bis keinen Vorteilen.
Nur: es ist nicht richtig.

Behauptest Du einfach. Da steht dann wohl Aussage gegen Aussage.
Opt-in gibt es weder bei Android noch bei Microsoft.

Was bedeutet denn dieses Opt-In in der Praxis? In der Praxis bedeutet es: Apples Software bleibt so lange doof und unwissend und kann dem Nutzer nicht das volle Erlebnis liefern, das er da eigentlich erwartet und das möglich wäre, bis das er einwilligt, dass die Software auch von seinen Daten lernen zu könenn, um das Ergebnis für ihn besser und brauchbarer zu machen.
Was wird der Nutzer wohl in Zukunft tun, um auch mit Apples Software das zu bekommen, das er mit der Software der Konkurrenz schon längst bekommt? Richtig: er wird ihr gestatten, auf seine daten zuzugreifen, damit die Software auch von seinen Daten lernen und ihm ein besseres Ergebnis liefern kann. Oder er greift gleich zur Software der Konkurrent, die das schon längst besser kann udn ihm bessere Ergebnisse liefert.

Nimm es mal so: Apple wird dieses Opt-In jetzt einführen, sozusagen als Test-Ballon. Und wird esnach und nach lockern und aufweichen. Und am Schluss ganz fallenlassen. Weil sie die damit vom Benutzer freigegebenen Daten nämlich ganz dringend brauchen, um ihre Services weiterhin so gut anbieten zu können, dass sie qualitativ mit der Konkurrenz mithalten können. Die ihnen da weit voraus ist, auch und gerade qualitativ. Grad', was Deep Learning und KI angeht. Da sind auf dem Gebiet in den letzten jahren Quantensprünge erreicht worden bei der Konkurrenz. Und da will Apple jetzt ein klein wenig mitreden undmal ganz sachte anklopfen. Da ist ein seichtes Opt-In ein schöner Anfang, um mal den Fuß ins Wasser stecken zu können. Es wird auf Dauer aber nicht ausreichen. Garantiert nicht.

Bei Android müsste man alle Google Apps killen, oder eben explizit auf CyanogenMod wechseln - nur nutzen 95% Android (TM) mit allen Google Apps. Und bei Microsofts Win 10 sind die Opt-out Einstellungen bestenfalls rudimentär vorhanden, bzw. muss man sie erst finden.

Hier geht's um KI, Künstliche Intelligenz, Deep-Learning! Das was Du da aufführst ist Pille-Palle dagegen!
Im Gegensatz dazu Apples Strategie: Opt-in (also explizite Freigabe durch den User)

Siehe zuvor Gesagtes. Test-Ballon. Es wird nicht ausreichen, um an die Qualität der Konkurrenz anknüpfen zu können. Wie denn auch, die Basis ist doch viel zu klein, und Apple gestattet standardmäßig durch dieses Opt-In seinen Nutzern, die ihnen eigentlich zugute kommende Software vom Lernen abzuhalten und das Lernen zu verlangsamen. Während die Konkurrenz ihnen diesbzgl. schon längst um Jahre voraus ist, die Software, die Algorithmen und die dahinterstehende Hardware auch (Mann, da kommen auf seiten von Google inzwischen neuronale Netze und zuerst geleaste und inzwischen selbstgebaute Quantencomputer mit eigens von Google entworfenen und gebauten Quantenchips zum Einsatz, die hier die Wissenbasis und das Lernen bilden und voranbringen! Was will Apple da mit seinem kleinen Fuß im Wasser per Opt-In-Schalter? Während de Konkurrenz da klotzt, kleckert Apple!). Währenddessen probiert Apple grad' noch aus. Auch Apple wird diese Klecker-Strategie früher oder später aufgeben müssen und klotzen müssen. Und sich von so manchem gemachten Versprechen verabschieden müssen, weil es in der Realität einfach nicht haltbar ist. Schon jetzt verlassensie ja den Weg der Tugend notgedrungen. Und müssen auf einmal MEHR Daten sammeln statt weniger. Obwohl sie das immer von sich gewiesen haben, dass sie das tun und tun müssen.

Lass' Dich doch nicht von Apple dauernd verarschen und Dir ein X für ein U vormachen! Früher oder später wird Apple einknicken vor den Realitäten (müssen!, wenn sie nicht das Nachsehen haben wollen). Sie tun es jetzt schon so langsam.

kein Geschäftskonzept, das auf die Verwertung von Daten basiert, und Apple zeichnet sich dadurch aus, dass sie explizit Daten nicht haben wollen

Bisher zeichnet sich Apple vor allem dadurch aus, viel Blabla zu machen und die Klappe weit aufzureißen. Wie es hinter den Kulisen aussieht und was da abseits der großen Bühne läuft, entspricht oft keineswegs dem, was sie nach vornehin in großen Tönen von sich geben.
um Daten nicht an Behörden liefern zu können - und zu müssen.

Haben andere vor ihnen auch schon gemacht. Nur mit weniger Trara und Tamtam und weniger öffentlicher Aufmerksamkeit. Zumal Apple ja zuvor ziemlich kräftig sehr wohl mit den Behörden zusammengearbeitet, denen sogar bereitwillig entgegenkam und gemeinsam Konzepte ausgearbeitet hatte. Bevor sie es sich dann anders überlegten, weil es ihnen dann irgendwann zu weit ging und sie das dan medienwirksam auf offener Bühne zelebriert haben. Nicht ohne den Behörden gleichzeitig undim allgemeinen Geschrei untergehend zu signalisieren: "Natürlich arbeiten wir weiterhin mit euch zusammen, da bleiben wir euch weiterhin gewogen wir bisher auch".
Differential Privacy wird, so sieht es aktuell aus, eine Option sein, die es Nutzern ermöglicht freiwillig Daten zu liefern - ohne dadurch gläsern zu werden.

Siehe obig Gesagtes. Du hast die Wahl zwischen Apps, die das tun, was Du von ihnen wünscht und erwartest und die mindestens gleichgute wenn nicht sogar bessere Ergebnisse liefern wie die Apps und Services der Konkurrenz. Oder Du musst Dich mit Apps begnügen, die dumm sind und dumm bleiben, weil Du ihnen untersagt hast, besser zu sein und zu lernen. Und wenn das jeder Nutzer macht, wovon sollen diese Apps und Services dann besser werden und lernen können? Und wie sollen sie dann besser sein und werden als die Apps der Konkurrenz?
Ist die Mehrheit der Nutzer so drauf, dass sie sich bewusst für ein schlechteres Produkt entscheiden, während nur einen Mausklick weiter die Konkurrenz was Besseres anbietet, das besser funktioniert und bessere Ergebnisse liefert? Schau' Dich doch um? Ist die Praxis so, wie Du Dir es wünscht und wie Apple es Dir insinuiert? Nein. Und warum ist es das nicht? Weil graue Theorie und Wunschdenken und die harte Praxis schon immer weit auseinanderklaffen.
Grad' beim Thema KI und Deep Leraning brauchst Du Daten, Daten und nochmals Daten. Und intelligente selbstlernende Algorithmen, die daraus lernen und Schlüsse ziehen können. Wie soll das gehen, wenn Du ihnen aber das Futter wegnimmst, ihnen nichts zu lernen gibst? So soll die KI das alternativ herbekommen? Fällt einfach so vom Himmel, oder wie?
Ich mache das z.B. freiwillig mit Gesundheitsdaten.

Hast Du Dir da mal durchgelesen, was Apple mit den Gesundheitsdaten macht, die da so über Apples HealthKit und entsprechende Apps reinkommen? Du weißt aber schon, dass Apple sich nicht nur das Recht rausnimmt, sondern es explizit sogar in die AGB reinschreibt, dass sie diese Gesundheitsdaten weitergeben und weiterverkaufen - natürlich nur an ausgewählte Kreise und Partner, mit denen sie zusammenarbeiten. Und natürlich nur zum Wohle des Nutzers und zur Verbesserung der angeboteten Dienste. Natürlich!
Wie gut Differential Privacy am Ende funktioniert, hängt vom Algorithmus ab - und der wird nun durch Dritte geprüft.

Obig ist beschrieben, durch wen geprüft und auf welche Weise geprüft.
Und nochmal: woher nimmt dieser Algorithmus seine Daten, aufgrund dessen er überhaupt funktionieren und lernen kann?
Zweifellos wird Apple das System aber stetig verbessern und sicherstellen, dass die Anonymität gewahrt bleibt.

Natürlich. Bisher existiert deren Modell lediglich in der Theorie, auf dem Papier. Es gibt bisher keine Umsetzung in der Praxis. Es ist also ein ganz großer Feldversuch am lebenden Objekt, der da grad' stattfindet, ob diese Theorie überhaupt hält, was sie verspricht. Es gibt bisher keine Labordaten, keine anderen Umsetzungen in der Praxis dieser bisher alleinstehenden Theorie, ob diese überhaupt so stimmt. Es gibt, so ist zu lesen, bisher nur einen mathematischen Beweis der beiden Autoren, dass diese ihre Theorie eigentlich funktionieren müsste. Und einer der Autoren hat mal grob über Apples Implementierung rübergeschaut und gesagt: "Ich denke, das ist der richtige Weg". Mehr nicht. Es gibt keine Referenzimplementierung bis jetzt, die diese Theorie in der Praxis bestätigt. Apples Implementierung ist somit die Referenzimplementierung. Es wird daran geschaut, ob die Theorie überhaupt stimmt und ob und wo nachgebessert werden muss bzw. ob die Theorie so überhaupt Bestand haben kann. So manches Mal in der Menschheit musste so manche Theorie umgeschmissen oder neu formuliert werden, einfach, wei lsie sich in der Praxis so nicht bestätigen ließ oder so einfach nicht durchführbar oder handhabbar war.
Ob und wie gut das gelingt, muss man sehen, deswegen ist Opt-in eben sehr wichtig.

Siehe zuvor Gesagtes. Und Du und ich und wir alle sind Versuchskaninchen. Da hat vor diesem Hintergrund eine Opt-In natürlich erst recht Sinn. Nach dem Motto: wer sich an diesem Test am lebenden Objekt freiwillig beteiligen möchte, um ein besseres Nutzungserlebnis zu haben, der erhebe bitte die Hand und willige ein. Wer sich nicht daran beteiligen möchte, der hält halt die Hand unten, kann aber dann auf die vielen Vorteile dieses Experiments auch nicht zugreifen und muss auf sie verzichten.

Ich frage Dich: wie wird das wohl ausgehen? Wieviele werden freiwillig Opt-In einschalten und damit ihre Daten an Apple preisgeben, nur um ein besseres Nutzungserlebnis der betreffenden Anwendung, des besseren Services zu haben?
Ich rate mal: ziemlich schnell ziemlich viele. Weil keiner verzichten will und viele einfach eine gute App mit guten Services haben will.
Dass man durch Digital Privacy und geschickte Algorithmen die Anonymität des Anwenders tatsächlich wahren kann, hat Google mit seinem RAPPOR Konzept bewiesen - siehe Link unten - was sie aber nur in einem sehr begrenzten Bereich tatsächlich einsetzten, hingegen Apple das dem Interessierten großflächig zur Verfügung stellen will.

Deswegen, weil Apple das grad' großflächig einsetzen will, reden wir hier auch über Opt-In und ganze 4 Anwendungsszenarien, auf die das erstmal begrenzt bleibt...
Schon klar.
Wichtig ist eben,,dass der Anwender das selber entscheiden können muss.

Siehe zuvor Gesagtes. Wie lange lässt Apple ihm diese Wahl? Wie lange hat Apple ihm die Wahl gelassen bzgl. Opt-In bei z.B. Gatekeeper? Was verschwindet nochmal da jetzt aus dem GUI mit Sierra?
Hier eine interessante Ergänzung zum Thema von Matthew Green:
http://blog.cryptographyengineering.com/2016/06/what-is-differential-privacy.html
Es endet mit einer interessanten Zusammenfassung:

"So is Apple's use of DP a good thing or a bad thing?

As an academic researcher and a security professional, I have mixed feelings about Apple's announcement. On the one hand, as a researcher I understand how exciting it is to see research technology actually deployed in the field. And Apple has a very big field.

On the flipside, as security professionals it's our job to be skeptical -- to at a minimum demand people release their security-critical code (as Google did with RAPPOR), or at least to be straightforward about what it is they're deploying. If Apple is going to collect significant amounts of new data from the devices that we depend on so much, we should really make sure they're doing it right -- rather than cheering them for Using Such Cool Ideas. (I made this mistake already once, and I still feel dumb about it.)

Völlig korrekt von ihm ausgesprochen, ich gebe ihm da 100% Recht. Ich argumentiere die ganze Zeit genau in diese Richtung. Eben mit genau dieser gesunden Portion Skepis, die er anmahnt.

But maybe this is all too "inside baseball". At the end of the day, it sure looks like Apple is honestly trying to do something to improve user privacy, and given the alternatives, maybe that's more important than anything else. "

Zwischen "Versuch" und "Es tatsächlich schaffen", liegen manchmal Welten. Und es ist ja nicht so, dass andere vor ihnen das nicht schon längst auch schon versucht hätten oder haben undihre Erfahrungen mitverschiedenen Ansätzen gemacht haben, positve wie negative. Und sich eingedenk dieser teilweise lange, lange Jahre gemachten Praxis-Erfahrungen dann für diese oder jene Methode entschieden haben, sie weiter zu verfolgen und auszubauen und andere Methoden haben fallengelassen, weil sie sich als nicht oder zu wenig praktikabel erwiesen haben.

Apple fängt auf diesem Gebiet grad' erst an, da imSandkasten zu spielen und auszuprobieren. Dieser Phase sind die anderen schon längst entwachsen, haben diese Erfahrungen schon lange hinter sich gelassen. Und konzentrieren sich darauf, was tatsächlich funktioniert. Und nicht auf das, was evtl. funtionieren könnte und sich beim Praxistest dann als untauglich erwiesen hat.
Ein Ansatz, den man bei Google / Android und Microsoft / Win Phone bzw. Windows 10. nicht sehen dürfte.

Du irrst! Ganz gewaltig. Die sind an dem Thema schon seit über 10 Jahren dran. Und klotzen da mittlerweile. Aber so RICHTIG. Apple fängt jetzt erst an damit. Und experimentiert. Und kleckert erstmal.
Die Frage ist, ob Apples Kleckerei zu was führt und ob sie geeignet ist, das aufzuholen und dem qualitativ und vom Ergebnis her gleichwertige Paroli zu bieten, was die Konkurrenz da bisher aufzubieten und ihnen durch jahrelange Arbeit und Forschungsarbeit auf allerhöchster wissenschaftlicher und international vernetzter Ebene voraus hat. Schaun mer mal. Skepsis und kritisches Hinterfragen bzgl. dem, was Apple da grad' als "Trial & Error – Versuch & Irrtum"-Experiment vorhat, ist angebracht. Wie auch der von Dir zitierte Matthew Green richtigerweise anmahnt.
0
tobias.reichert27.06.16 19:33
Nichts verschwindet aus der GUI bei Sierra. In Zukunft kann man sogar schon in der Fehlermeldung auf "trotzdem ausführen" klicken.
0
sierkb27.06.16 21:48
tobias.reichert
Nichts verschwindet aus der GUI bei Sierra.

Doch (siehe Screenshots und blau Hervorgehobenes):



heise
Apple streicht in macOS Sierra eine Gatekeeper-Option aus den Sicherheitseinstellungen: Nutzer können für App-Downloads nicht länger "Keine Einschränkungen" wählen.

Apples Malware-Schutz Gatekeeper wird in macOS Sierra strenger: Die bislang mögliche Option "Keine Einschränkungen" ist aus den Sicherheitseinstellungen der ersten Beta von macOS 10.12 verschwunden, wie Entwickler berichten. Zur Wahl steht nun nur noch die bislang als Standardeinstellung gesetzte Option "App Store und verifizierte Entwickler" sowie die Beschränkung rein auf Software aus dem Mac App Store.

Gatekeeper stoppt damit generell das Ausführen von Programmen, die nicht aus dem Mac App Store stammen oder mit einem gültigen Apple-Entwickler-Zertifikat signiert wurden und zeigt eine Warnmeldung. Der Nutzer muss erst bestätigen, dass er die App trotzdem öffnen will. Das Ausführen nicht signierter Software bleibt also weiter wie gewohnt möglich.

Workaround zum Öffnen unsignierter Apps

Ein bekannter Bug in der ersten Vorschauversion setzt den "Trotzdem öffnen"-Knopf in dem Warndialog außer Gefecht, der beim Ausführen unsignierter Apps erscheint – darüber informiert Apple in den Veröffentlichungsnotizen zu macOS 10.12. Als Workaround bleibt der Weg über das Kontextmenü: Ein Rechtsklick auf das Programm-Icon erlaubt das Anwählen von "Öffnen", anschließend wird die Software ohne Nachfrage ausgeführt.

Die bisherige Option für "Keine Einschränkungen" bei App-Downloads soll offenbar auch nicht im weiteren Verlauf der Beta von macOS 10.12 zurückkehren. Die gestrichene Option sei eine bewusste Änderung in Gatekeeper teilte das Unternehmen in einer Session auf der Entwicklerkonferenz WWDC mit.
Quelle: heise (15.06.2016): macOS 10.12: App-Downloads nur noch mit Einschränkungen
In Zukunft kann man sogar schon in der Fehlermeldung auf "trotzdem ausführen" klicken.

Siehe rot Hervorgehobenes.

Auch MTN hat drüber berichtet, und im Zuge dessen wurden diese Details genannt und diskutiert (und Du kannst es seitdem wissen).
0
PaulMuadDib28.06.16 10:03
Das ist doch ein Bug mit dem Knopf. Was soll die Aufregung?
0
tobias.reichert28.06.16 16:31
Zumal der Bug schon in den Release Notes steht und auch in der WWDC Session thematisiert wurde.
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.