Ehemaliger Siri-Chef: Warum die Sprachassistenten alle nicht leisten, was man einst versprochen hat

William Stasior war fast von Anfang an Leiter der Siri-Abteilung, bis er nach rund sieben Jahren auf diesem Posten das Unternehmen verließ. Schon 2018 hatte Apple die Strukturen grundlegend neu geordnet. Um die eigenen Fachleute für Spracherkennung, Sprachverarbeitung und Künstliche Intelligenz schneller und besser zusammenarbeiten zu lassen, entstand eine gemeinsame Abteilung. Entweder war in diesem neuen Unternehmensbereich kein Platz mehr für Stasior oder er wollte nach der langen Zeit als Siri-Chef keine untergeordnete Position einnehmen – weswegen er im Februar 2019 auch seinen Weggang verkündete. In einem Interview mit Business Insider äußerte sich Stasior jetzt zum Zustand der momentan verfügbaren Sprachassistenten, zeichnet dabei kein sonderlich positives Bild.


Computer verstehen nicht
Ein Grundproblem bleibt, dass Computer dazu erschaffen wurden, Aufgaben abzuarbeiten – und nicht ein generelles Verständnis der Welt zu entwickeln, so wie es Menschen tun. Laut Stasior leisten die Assistenten weiterhin nicht, was einst vollmundig versprochen wurde. Ein Mensch kann die Aussage einer anderen Person verstehen, der Algorithmus hingegen nicht. Selbst wenn die Branche rasante Fortschritte mache, so sei immer noch ein sehr weiter Weg zu gehen. Einfache Aufgaben zu erfüllen, beispielsweise einen Timer zu stellen oder ein Gerät zu aktivieren, erledigen die Assistenten problemlos. Allerdings müssen noch Jahre an Arbeit in die Weiterentwicklung fließen, damit die Systeme auch ein Verständnis entwickeln, wie Menschen sprechen und was sie mit Aussagen meinen.

Einfache Aufgaben sind kein Problem
Erinnert man sich an die erste Präsentation von Apples Siri-Implementierung (Oktober 2011), so hieß es damals, der Assistent erkenne, was der Nutzer meine. Noch immer ist das aber weit vom Alltag entfernt, denn selbst wenn die Algorithmen viele verschiedene Formulierungsweisen interpretieren können, so muss man sehr oft noch die "Sprech-Syntax" wissen – andernfalls macht der Assistent Unsinn oder weiß überhaupt nicht, was man von ihm will. Jeder, der mehr als kurze Sprachbefehle an Siri, Alexa und Co, richtet, weiß um die Problematik.

Menschlich wirken klappt, menschlich reagieren nicht
Siri erweckte zu Anfang den Eindruck, recht menschlich zu agieren – allerdings war dies eher das Ergebnis des Redaktionsteams und nicht der Künstlichen Intelligenz. Durch witzige oder bisweilen launische Antworten, die ein 100-köpfiges Team ausgearbeitet hatte, verlieh Apple dem Sprachassistenten einen Charakter. Oft führte dies allerdings zur Situation, dass witzige Bemerkungen treffsicher kommentiert wurden, kontext-relevante Anfragen aber ins Leere gingen. Genau dies ist das von Stasior geschilderte Problem: Verständnis brachten und bringen Sprachassistenten nur in sehr eingeschränktem Maße mit. Daran ändert sich wohl auch in absehbarer Zeit sehr wenig.

Kommentare

Timeo Danaos14.06.19 16:30
Wenigstens sagt mal einer, was Sache ist und weist diesen KI-Hype in die Schranken. Man hat viel erreicht, keine Frage, aber von intellektueller, menschlicher Interaktion ist man noch Jahrzehnte entfernt. Wenn man das mit den bisherigen Prinzipien überhaupt hinbekommt. Ich denke, dass dazu erst ein Sprung in der grundsätzlichen Hardwarearchitektur nötig ist. Vielleicht bescheren uns den ja dann die Quantencomputer…
+5
sonorman
sonorman14.06.19 16:39
Kurzum: Künstliche Intelligenz ist nicht intelligent. Mein Reden seit leipzig/einundleipzig. Aber auf mich hört ja keiner.
+7
motiongroup14.06.19 17:10
was habe ich mir ne blutige Nase geholt als ich schrub das es keine KI gibt.. ... danke für den Artikel
wer nen roten Daumen über hat.. darüber plaudern ist nicht so euer Ding gell
-2
Fenvarien
Fenvarien14.06.19 17:19
motiongroup In der Absolutheit ist es ja auch falsch. Es gibt derzeit noch keine künstliche Repräsentation kompletten menschlichen Agierens – sehr wohl aber die Technologie "Künstliche Intelligenz", die in einigen Bereichen Aspekte menschlichen Verhaltens und Verstehens wiedergeben kann. Sicherlich kann die Technologie auch Dinge lernen, die man bei Lebewesen als "Intelligentes Verhalten" bezeichnen würde. Dass Empathie und Einfühlungsvermögen völlig fehlen, hat sich seit Commander Data aus Next Generation hingegen nicht geändert und es wird sich wohl auch in den nächsten Jahren wenig tun...
Ey up me duck!
+10
tranquillity
tranquillity14.06.19 17:26
Es gibt sog. schwache KI.

Starke KI gibt es nicht und wird es meiner Meinung nach niemals geben.
0
cab
cab14.06.19 17:26
Funfact: Der ehemalige Leiter der permanent mithörenden "Hey-Siri" heißt so ähnlich wie Stasi-Ohr.
Diese formschöne Signatur gibt es jetzt zum günstigen Einstiegspreis von nur 849,95€ !
+2
motiongroup14.06.19 17:28
Absolut und solange Empathie als unrealistisch und unerreichbar gilt ist KI die Summe ihrer Regelwerke als Algorithmen definiert, nicht mehr nicht weniger.
Das ist aber nun nichts mehr neues und trotzdem wirds nicht verstanden

Und nun gebt mir ROT
wer nen roten Daumen über hat.. darüber plaudern ist nicht so euer Ding gell
0
tranquillity
tranquillity14.06.19 17:28
Der ehemalige Siri-Chef beschwert sich darüber, wie schlecht ein Produkt ist, für welches es als Chef 8 Jahre verantwortlich war. Nu ist er kein Chef mehr. Welche Schlüsse erlaubt uns das zu ziehen?
+2
=RS=14.06.19 17:39
motiongroup
was habe ich mir ne blutige Nase geholt als ich schrub das es keine KI gibt.. ... danke für den Artikel

Dass das dass mit das verwechselt wird, führt irgendwann dazu, dass das dass das nicht mehr erträgt und dass das dass das das dann tötet.

+6
sonorman
sonorman14.06.19 17:41
Also wenn ich das zu entscheiden hätte, würde ich den Begriff KI komplett streichen. Es gibt aktuell weder schwache noch starke KI, sondern nur Machine Learning Algorithmen. Mit Intelligenz im eigentlichen Sinne hat das rein gar nichts zu tun, solange die Algorithmen kein eigenes Bewusstsein entwickeln.

Sprechen wir noch mal darüber, wenn wir an diesem Punkt sind:

+5
motiongroup14.06.19 17:45
Dass das dass mit das verwechselt wird
darum schrUb ichs ja mein scharfgescheiter Padawan ... schön dass du es verstanden hast
wer nen roten Daumen über hat.. darüber plaudern ist nicht so euer Ding gell
-1
verstaerker
verstaerker14.06.19 18:09
cab
Funfact: Der ehemalige Leiter der permanent mithörenden "Hey-Siri" heißt so ähnlich wie Stasi-Ohr.
in der DDR wäre Herr Stasior sicher sehr beliebt bei seinen Mitmenschen
0
Buginithi
Buginithi14.06.19 21:02
Vielleicht kann ja Ava, ein System eines 16jährigen Schüler helfen.
Inspiriert von Jarvis aus Iron Man

https://www.nw.de/lokal/kreis_herford/buende/22363418_Schuel er-haucht-Computern-kuenstliche-Intelligenz-ein.html
0
dan@mac
dan@mac14.06.19 22:51
Es geht ja schon dabei los dass Intelligenz ganz unterschiedlich definiert wird. In den 90ern war das Ziel einer KI möglichst menschlich zu sein, siehe den bereits erwähnten Data...


Und wenn der KI Empathie fehlt, dann doch nur weil sie ihr nicht programmiert wurde. Empathie ist doch nichts magisches, was nur Menschen haben können. Bei einer KI ist es nur besonders einfach diesen Teil wegzulassen, was das Ganze dann gruselig macht.
-5
Tirabo14.06.19 23:25
tranquillity
Der ehemalige Siri-Chef beschwert sich darüber, wie schlecht ein Produkt ist, für welches es als Chef 8 Jahre verantwortlich war. Nu ist er kein Chef mehr. Welche Schlüsse erlaubt uns das zu ziehen?

Mmh, ja welche eigentlich, vielleicht diese, dass er merkte, dass auch nach 8 Jahren generell keine größeren Fortschritte zu erreichen sind, was er nun ja auch im Interview sagte?
0
Tirabo14.06.19 23:34
dan@mac

Und wenn der KI Empathie fehlt, dann doch nur weil sie ihr nicht programmiert wurde. Empathie ist doch nichts magisches, was nur Menschen haben können. Bei einer KI ist es nur besonders einfach diesen Teil wegzulassen, was das Ganze dann gruselig macht.

Die wichtigste Voraussetzung der Empathie ist die Fähigkeit der Selbstwahrnehmung. Es muss ein erlebtes Ich vorhanden sein. Der KI kann nicht einfach einprogrammiert werden, wie schmerzhaft es ist, die eigene Mutter durch Tod verloren zu haben, um nachvollziehen zu können, wie es jemanden geht, der gerade seine Mutter verloren hat und völlig erschüttert am Boden liegt.

Meines Erachtens wird dazu KI nie in der Lage sein. Allein das Wort „künstliche Intelligenz“ führt dies ja. schon per Definition ins Ad Absurdum.
+3
Weia
Weia15.06.19 15:35
dan@mac
Und wenn der KI Empathie fehlt, dann doch nur weil sie ihr nicht programmiert wurde. Empathie ist doch nichts magisches, was nur Menschen haben können.
Doch, das ist es. Empathie ist nämlich nur denkbar bei einem selbstbewussten Wesen (selbstbewusst nicht im Sinne von selbstsicher, sondern im Sinne von ein Bewusstsein von der eigenen Existenz habend), das dann auch noch den Transfer leistet, dass sein Gegenüber ein ebensolches selbstbewusstes Wesen ist.

Das Phänomen des Bewusstseins von sich selbst ist eines der „magischsten“ Phänomene überhaupt in dem Sinne, dass wir trotz aller Bemühungen nicht das geringste Verständnis davon haben, wie das entsteht und „was es eigentlich ist“. Bei Kleinkindern wird die Ausprägung entwicklungspsychologisch im sogenannten Spiegelstadium manifest – dem Augenblick, in dem ein Kleinkind sich im Spiegel sieht und erstmals begreift, dass „es das selbst ist”.

Was wir in der so genannten künstlichen „Intelligenz“ machen können, ist, eine Simulation von Selbstbewusstsein oder gar Empathie zu programmieren. Nur hat das mit Selbstbewusstsein und Empathie nicht das Geringste zu tun.

Das berühmteste Gedankenexperiment, um das zu verstehen, ist das Chinesische Zimmer des Philosophen John Searle. Das geht in Kürzestfassung wie folgt:

Eine Person, die keine Ahnung von der chinesischen Sprache und Schrift hat, sitzt in einem geschlossenen Raum; durch einen Schlitz werden ihr Zettel mit chinesischen Schriftzeichen zugesteckt. Anhand von extrem umfangreichen Regelwerken, die in Büchern enthalten sind, die sich in diesem Raum befinden, kann die Person nun andere Zettel mit Schriftzeichen auswählen, die sie zurück nach draußen schiebt.

Für einen Chinesen außerhalb dieses Zimmers, der Zettel mit chinesischen Fragesätzen in diesen Raum schiebt und adäquate „Antworten“ zurückerhält, sieht es so aus, als würde sein Gegenüber die chinesische Sprache verstehen.

Doch obwohl aufgrund des extrem umfangreichen Regelwerks in dem Zimmer die vermeintlichen „Antworten“ perfekte Antworten darstellten, hat die Person im geschlossenen Zimmer in Wirklichkeit nicht das geringste Verständnis davon, wovon die Sätze handeln.

Und in diesem Gedankenexperiment geht es „nur“ um inhaltliches Verstehen. Ein Bewusstsein seiner selbst zu entwickeln, ist nochmal eine ganze Stufe komplexer, und Empathie nochmals.

Eine Simulation von intelligentem Verhalten erzeugt keine Intelligenz, sondern bleibt eine mehr oder weniger gute Simulation davon. Die Kluft zwischen dieser Simulation und tatsächlicher Intelligenz ist vollkommen unverstanden und “künstliche Intelligenz” im Wortsinne eine Chimäre.
+5

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.

OK MacTechNews.de verwendet Cookies unter anderem für personalisierte Inhalte, Seitenanalyse und bei der Auslieferung von Google-Anzeigen. Dies war zwar schon immer so, auf Wunsch der EU muss nun jedoch explizit darauf hingewiesen werden. Durch Nutzung der Website erklären Sie sich damit einverstanden. Weitere Informationen