Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Siri, AR, Marzipan: WWDC 2019 hält neue Features für Entwickler bereit

Ein weiterer Bericht will Details der WWDC 2019 erfahren haben und teilt sie mit der Öffentlichkeit. Entwickler sollen demnach besseren beziehungsweise tieferen Zugriff auf Siri-, AR- und NFC-Funktionen erhalten. Auch neue Marzipan-Umsetzungen verrät der Artikel.


Siri tiefer integrieren
Neue Siri-Befhlssätze warten auf die Entwickler. Darüber können sie dann Medienwiedergabe, Suche und Sprachsteuerung per Sprachbefehl integrieren. Auch das Ticketing von Veranstaltungen, Anhängen von Nachrichten sowie das Abrufen von Zug- und Flug-Daten sowie Sitzreservierungen werde durch die neuen Befehlssätze möglich.

Neue Marziplan-APIs
Wer seine iOS-App auf den Mac portieren möchte, soll auf neue APIs zugreifen können. Damit können UI-Kit-Anwendungen mac-spezifische Funktionen wie TouchBar- und Menüleiste samt Tastaturkürzel erhalten. Auch das Öffnen mehrerer Fenster soll damit ermöglicht werden. Split-View-Apps hat Apple die Funktion hinzugefügt, dass sich durch Ziehen der verschiebbaren Trennungsleiste die Größe ändert. Ein Doppelklick bringt sie wieder an den ursprünglichen Platz. Ein einzelnes Kontrollhäkchen in XCodes target settings aktiviert in der neuen Version die Mac-Unterstützung von iOS-Programmen – ähnlich als ob man einer reinen iPhone-App die iPad-Unterstützung erlaubt.

AR erhält neues Framework
„Signifikante Änderungen“ nennt der Bericht im Bereich Augmented Reality (AR). Apple stelle ein neues swift-exklusives Framework und eine Zusatz-App bereit, mit der Entwickler in einem visuellen Editor entsprechende Erlebnisse erstellen könnten. ARKit soll demnächst menschliche Posen, Spiele-Controller und Stereo-AR-Headsets erkennen und verarbeiten dürfen.

Taptic Engine, NFC und Link-Vorschauen
Apple soll auch ein neues Framework im Portfolio haben, um Taptic-Engine-Funktionen einzubinden. Dieses biete Entwicklern mehr Kontrolle und einen erweiterten Satz von Feedback-Stilen. Links in Apps sollen ähnlich wie in iMessage eine Vorschau anzeigen. Im Bereich NFC tut sich mit iOS 13 ebenfalls etwas: Das Betriebssystem kann dann ISO-7816-, FeliCa- oder MiFare-Tags lesen und nicht wie bisher nur NDEF-formatierte Anweisungen. Dabei handelt es sich um Protokolle, die etwa von vielen Chipkarten (Kreditkarten, Ausweise, Tickets) zur Zahlungsabwicklung verwendet werden.

CoreML: On-Device-Update und Soundanalysen
Die neue Version von CoreML soll Entwicklern ermöglichen, ihre Modelle für das maschinelle Lernen direkt auf den Geräten zu aktualisieren. Derzeit brauchen diese eine Vorab-Schulung und verhalten sich anschließend statisch. Mit der 2019er-Version können die Apps dann ihr Verhalten ändern, während ihre ML-Modelle aus dem Benutzerverhalten lernen. Eine neue API lässt Entwickler zudem ML-basierte Soundanalysen durchführen. Das Framework Vision erhält ein Bildklassifizierungsmodul, um Bilder in gemeinsame Kategorien einzuordnen, ohne dass ein maschinelles Lernmodell dazu eingebettet werden muss.

Dokumenten-Scans und Gerätetreiber
Die Funktion, Dokumente scannen zu können, wie sie etwa in den iOS-Notizen vorhanden ist, stellt Apple allen Entwicklern künftig per Framework zur Verfügung. Zudem sollen Apps Fotos von externen Geräten erfassen können, ohne den Umweg über die Foto-App beschreiten zu müssen. Programme auf dem Mac dürfen ihren Nutzern mit macOS 10.15 Erweiterungen anbieten, um die Finder-Integration von Programmen wie Dropbox zu verbessern. Für alle Entwickler, die selbst Gerätetreiber schreiben (wollen), hält Apple in Zukunft eine neue API bereit.

Kommentare

Embrace23.04.19 15:37
Noch besser wäre es, wenn der NFC-Chip auch schreiben könnte, also bspw. Mitarbeiter-/Kundendaten von Lesegeräten erfasst werden könnten.
+2

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.