Siri soll schlauer und geistreicher werden: Apple sucht Autoren und Redakteure

"Siri, wie viele Spiele hat Mainz 05 in dieser Saison verloren?" Nur allzu oft weiß Apples Sprachassistent auf solche und ähnliche Fragen keine aussagekräftige Antwort. Insbesondere wenn es um Sport, Wetter oder Börsennachrichten geht, schneidet der Dienst im Vergleich zu Amazons Alexa und Googles Assistant nicht gut ab. Das soll sich in naher Zukunft ändern.


Schlauer und geistreicher
Apple sucht schon seit einiger Zeit intensiv nach Softwareentwicklern und Autoren, um Siri nicht nur schlauer, sondern auch geistreicher zu machen. Das berichtet der Statistikservice Thinknum, der die Stellenanzeigen des kalifornischen Unternehmens ausgewertet hat. Dabei fällt auf, dass immer wieder bestimmte Themenbereiche genannt werden, in denen Apple offenbar Schwächen erkannt hat.


Nicht immer passt Siris Antwort zur Frage.
Screenshots: MacTechNews

Optimierungsbedarf bei Sport und Wetter
Stark gestiegen ist in den vergangenen Wochen beispielsweise die Zahl der Stellenausschreibungen für Softwareentwickler, die an der Optimierung von Siri in den Sektoren "Sport", "Aktien" und "Wetter" arbeiten sollen. Ziel ist es offenbar, den Sprachassistenten interessanter und nützlicher zu gestalten und die Nutzer dazu zu bringen, ihn häufiger als bisher zu verwenden.


Siri soll mehr "Persönlichkeit" erhalten
Darüber hinaus sucht Apple kreative Autoren und Redakteure, die sich um die "Persönlichkeit" von Siri kümmern sollen. In einer Stellenbeschreibung für einen "International Creative Writer" heißt es dazu, man suche einen Mitarbeiter, der in Zusammenarbeit mit einem ganzen Team Dialoge für Cupertinos Sprachassistenten entwickeln soll. Dadurch soll Siri "geistreicher" werden und ein "Bewusstsein" für kulturelle Besonderheiten entwickeln - und zwar in möglichst vielen Sprachen.


Evolutionäre Entwicklung
Wann sich diese Bemühungen auf Siri auswirken werden, bleibt abzuwarten. Betrachtet man die Entwicklung aller Sprachassistenten in den vergangenen Jahren, steht allerdings zu erwarten, dass auch bei Apples Dienst eine evolutionäre Entwicklung zu erwarten ist. Eine Revolution, die Siri mit einem Schlag an die Spitze des Feldes katapultiert, erscheint hingegen eher unwahrscheinlich.

Kommentare

marcol
marcol02.04.19 12:57
Es wird wirklich Zeit Siri stark zu verbessern. Ich vermute allerdings das sie Siri von Grund auf komplett neu entwickeln müssen um wirkliche Verbesserungen zu erreichen.

Warum schafft es zB Amazon, ein Verkäufer und Server Anbieter, ein wesentlich besseres Sprachsystem zu haben?

Vielleicht kann man heute auch mit künstlicher Intelligenz ein besseres System schaffen als es zu der Entstehungszeit von Siri möglich war.
+2
Mecki
Mecki02.04.19 13:02
Was Siri fehlt ist die Fähigkeit Antworten auf beliebige Fragen zu suchen und diese Antworten dann auch vorzulesen. Wenn Siri die Antwort nicht kennt, dann präsentiert es mir das Ergebnis einer Websuche oder ggf. einen Wikipedia Eintrag. Aber das war nicht die Aufgabe. Ich habe nicht gesagt "Siri, such mal ... für mich im Web" und ich habe auch nicht gesagt "Siri, schau mal ... in der Wikipedia nach". Ich habe eine konkrete Frage gestellt und erwarte eine konkrete Antwort. Wenn Siri also schon einen Wikipedia Eintrag findet, warum kann mir Siri dann nicht einfach den ersten Textabschnitt der Zusammenfassung vorlesen? Damit wäre ich in 9 von 10 Fällen schon zufrieden.

Denn wenn ich einen Wikipedia Eintrag selber lesen will, dann kann ich das auch ohne Hilfe von Siri und wenn ich Siri benutze, dann meistens deswegen, weil ich gerade keine Hand frei habe oder nicht die Möglichkeit auf mein Display zu schauen. Ich denke das ist bei vielen so und dass es dann absolut Null hilfreich ist irgendwas im Display anzuzeigen und dort auf User Input zu warten, ich finde soweit hätte auch Apple ruhig mal mitdenken können.
+7
Caliguvara
Caliguvara02.04.19 13:12
marcol
Warum schafft es zB Amazon, ein Verkäufer und Server Anbieter, ein wesentlich besseres Sprachsystem zu haben?
Weil Amazon eben auch bei Alexa auf Server setzt - d.h. dass alles was Du je zu ihr sagst wird bei Amazon behandelt und abgeglichen, um auch künftig die bestmögliche Antwort zu liefern. Alexa ist ein lernendes System, welches die Sprachkomandos der Nutzer verwendet um sich zu verbessern. Datenschutztechnisch war das schon immer mit höchster Vorsicht zu genießen, und bleibt auch noch immer der größte Knackpunkt von Alexa und Google.
Die Fragen an Siri werden nicht zur Verbesserung des Sprachassistenten beigetragen - Siri wird komplett lokal behandelt, der Server wird nur für die Antworten gebraucht. Soll heißen, die Stimmdekodierung wird auf dem iPhone betrieben.
Soweit ich mich richtig erinnere zumindest. 🙂

@Mecki volle Zustimmung. Habe neulich mal gleiche Fragen an Hey Siri und Ok Google gestellt. Die Ergebnisse waren zwar weitestgehend deckungsgleich, aber zB das Vorlesen von gefundenen Artikeln, oder auch der Support von mehreren Sprachen lässt Siri dann doch alt aussehen. Und Komplexere Fragen mit zwei Variablen lassen Siri in die Grätsche gehen. Was sie jedoch deutlich besser beherrscht sind Kalendereinträge. Da bekam Google mit Müh und Not Titel, Datum und Uhrzeit auf die Reihe, wo Siri problemlos noch einen Ort hinzufügen konnte.
Don't Panic.
0
sierkb02.04.19 13:38
Caliguvara
Datenschutztechnisch war das schon immer mit höchster Vorsicht zu genießen, und bleibt auch noch immer der größte Knackpunkt von Alexa und Google.

Stichwort: Differential Privacy. Damit arbeitet man dort auch bzw. schon längst. Dort sitzen seit Jahren die diesbzgl. Experten und Teams – nicht bei Apple. Vor ein paar Tagen sind 3 Turing-Awards verteilt worden: 1 Preisträger arbeitet bei Facebook, 1 Preisträger arbeitet bei Google.

heise (28.03.2019): Deep Learning: Turing Award für Yoshua Bengio, Geoffrey Hinton und Yann LeCun
Die Väter der Deep-Learning-Revolution erhalten für ihre Arbeiten den prestigeträchtigen ACM-Preis, der so etwas wie der Nobelpreis der IT darstellt.

Apple? Fehlt. Wen und was hat Apple diesbzgl. anzubieten?
Während die Anderen klotzen, kleckert Apple.

Caliguvara
Die Fragen an Siri werden nicht zur Verbesserung des Sprachassistenten beigetragen - Siri wird komplett lokal behandelt, der Server wird nur für die Antworten gebraucht. Soll heißen, die Stimmdekodierung wird auf dem iPhone betrieben.

Wie kann ein einzelnes Endgerät, und sei da auch noch so der neueste Chip drin verbaut, gegen die geballte, vernetzte Power eines oder mehrerer vernetzter Rechenzentren anstinken, welche nicht nur in diesen Dingen mit neuronaler Intelligenz und entspr. Hard- und Software (darunter u.a. auch Quantenrechner, die z.B. bei der Erkennung von Bildern, Sprache etc. rangezogen werden – auf Basis von mittels Differential Privacy gekürzter und anonymisierter Datensätze und Metadaten) arbeiten und Ergebnisse hervorbringen?

Wie soll Apples bisheriger Ansatz je dagegen auch nur ansatzweise konkurrenzfähig sein können – außer im schönen idealisierten Werbeprospekt und mit haltlosen Werbeversprechen?
-9
mobileme02.04.19 14:25
Naja, also Alexa muss man die Sätze nahezu Wort für Wort diktieren, damit es verstanden wird. Bei Google irritiert mich die grottenschlechte Stimmqualität, die klingt sowas von besch****** ... die liegt Siri um Welten vorne.
-3
My2Cent02.04.19 14:55
Siri fand den Artikel offenbar interessant.

Habe mir den Artikel von der iOS Sprachausgabe-Funktion vorlesen lassen.
Beim letzten Satz des Artikels:
„Eine Revolution die Siri mit einem Schlag ...“
hat sich Siri bei den Worten: „die Siri“ angesprochen gefühlt. .
0
michayougo02.04.19 15:11
Siri ist schon deutlich besser geworden. Unter der Haube merkt man schon, dass Apple dran bleibt.

Was mich erstaunt hatte gestern. Ich fragte Siri nach dem Wetter für morgen in meiner Stadt. Klappte natürlich.
Dann fragte ich in dem Kontext ergänzend:
„Und am Wochenende?“
Auch das klappte.
Dann fragte ich weiter:
„Und in Stuttgart?“
Auch das klappte. Siri nannte mir das Wetter für Stuttgart am Wochenende. Siri hat sich quasi die Ausgangsfrage gemerkt und konnte ergänzende Fragen beantworten. Das ist aus meiner Sicht erstaunlich komplex.

Auch allein durch die Kurzbefehle nutze ich Siri so oft wie nie zuvor.
Ich kann einfach Fragen: „Wann der Bus von der Stadtmitte nach Hause fährt...“ usw.
+1
sierkb02.04.19 15:32
michayougo
Siri ist schon deutlich besser geworden. Unter der Haube merkt man schon, dass Apple dran bleibt.

Indem sie genau den Weg gehen, den Andere auch schon längst gehen – und Daten bzw. Nutzerdaten fleißig sammeln und zur Analyse ihrer Server-Struktur vorlegen. Nur: machen das die Anderen auch schon längst und in viel größerem und leistungsvolleren Maßstab, den sie immer weiter verfeinern, verbessern und ausbauen. Mit eben genau den besseren Ergebnissen, die bei Apples Ansatz bisher fehlen und auf die man so sehnlichst wartet.
michayougo
Was mich erstaunt hatte gestern. Ich fragte Siri nach dem Wetter für morgen in meiner Stadt. Klappte natürlich.
Dann fragte ich in dem Kontext ergänzend:
„Und am Wochenende?“
Auch das klappte.
Dann fragte ich weiter:
„Und in Stuttgart?“
Auch das klappte. Siri nannte mir das Wetter für Stuttgart am Wochenende. Siri hat sich quasi die Ausgangsfrage gemerkt und konnte ergänzende Fragen beantworten. Das ist aus meiner Sicht erstaunlich komplex.

Da freut man sich also, wenn überhaupt was klappt, was bei der Konkurrenz schon lange selbstverständlich ist… So leicht sind Apple-Nutzer an der Front inzwischen also zufriedenzustellen und zu beeindrucken?
-11
Mecki
Mecki02.04.19 18:41
Caliguvara
Die Fragen an Siri werden nicht zur Verbesserung des Sprachassistenten beigetragen - Siri wird komplett lokal behandelt, der Server wird nur für die Antworten gebraucht. Soll heißen, die Stimmdekodierung wird auf dem iPhone betrieben.
Soweit ich mich richtig erinnere zumindest. 🙂
Da erinnerst du dich aber komplett falsch. Siri war noch nie lokal, sonst würde es ja auch einfache Dinge ohne Internetanbindung tun können, z.B. etwas in meinen Terminen nachschauen.

The recording of the user’s spoken words is sent to Apple’s voice recognition server. If the task involves dictation only, the recognized text is sent back to the device. Otherwise, Siri analyzes the text and, if necessary, combines it with information from the profile associated with the device. For example, if the request is “send a message to my mom,” the relationships and names that were uploaded from Contacts are utilized. The command for the identified action is then sent back to the device to be carried out.

Many Siri functions are accomplished by the device under the direction of the server. For example, if the user asks Siri to read an incoming message, the server simply tells the device to speak the contents of its unread messages. The contents and sender of the message aren’t sent to the server.

User voice recordings are saved for a six-month period so that the recognition system can utilize them to better understand the user’s voice. After six months, another copy is saved, without its identifier, for use by Apple in improving and developing Siri for up to two years. A small subset of recordings, transcripts, and associated data without identifiers may continue to be used by Apple for ongoing improvement and quality assurance of Siri beyond two years. Additionally, some recordings that reference music, sports teams and players, and businesses or points of interest are similarly saved for purposes of improving Siri.

Quelle: ab Seite 69

Was mich daran schon immer störte: Apple sagt, dass Siri ja komplett anonym arbeitet, da die Recordings unter einer zufälligen ID übertragen und gespeichert werden und Apple diese nicht meiner Person zuordnen kann, da nur mein Gerät die ID kennt. Allerdings speichert Apple unter dieser ID auch alle Namen, Spitznamen und Verknüpfungen meines Adressbuchs (keine Adressen oder Telefonnummern), inklusive meines eigenen Eintrags (Visitenkarteneintrag, auch damit Siri weiß wer man ist). Dort steht also mein echter Name, dort stehen die echten Namen meiner Eltern, Geschwister, Kinder, und die Namen meiner Arbeitskollegen. Wie schwer wäre es jetzt für die Polizei oder einen Geheimdienst diese "zufällige ID" einer echten Person zuzuordnen? Und diese Daten werden immer übertragen, wenn man Siri oder die Diktierfunktion einschaltet (darauf wird man sogar hingewiesen beim Einschalten), auch dann, wenn man ansonsten iCloud oder das iCloud Adressbuch bei Apple gar nicht verwendet. Nur wenn man beides abschaltet, werden die Daten bei Apple gelöscht. Schaltet man es wieder an, werden sie erneut übertragen, allerdings dann unter einer neue zufälligen ID.
+3
depeche101mode02.04.19 19:47
Ach wie schee, e Meenzer Beispiel 😂😂😂
-2

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.

OK MacTechNews.de verwendet Cookies unter anderem für personalisierte Inhalte, Seitenanalyse und bei der Auslieferung von Google-Anzeigen. Dies war zwar schon immer so, auf Wunsch der EU muss nun jedoch explizit darauf hingewiesen werden. Durch Nutzung der Website erklären Sie sich damit einverstanden. Weitere Informationen