Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Google I/O: Android P setzt auf Wischgesten, Google Assistant kann telefonieren

Google hat auf der hauseigenen Entwicklermesse I/O in Mountain View (Kalifornien) die Software-Agenda für 2018 bekanntgegeben. Zu den wichtigsten Veranstaltungsthemen zählten die kommende Version des iOS-Konkurrenten Android und größere Funktionserweiterungen des Google Assistant.


Android P mit Fokus auf Wischgesten
Die neue Android-Version „P“, die Google voraussichtlich im Herbst veröffentlichen wird, konzentriert sich laut des Unternehmens auf drei Bereiche: Einfachheit, Intelligenz und digitales Wohlbefinden. Die auffälligste Neuerung ist der Fokus auf Wischgesten, die an die iOS-Funktionsweise des iPhone X erinnern. Statt über die drei von Android altbekannten Software-Touchbuttons im unteren Bereich des User Interface sollen Nutzer in der neuen Version des Betriebssystems vorrangig via Wischgeste ans Ziel gelangen.

Ein einzelner Wisch vom unteren Display-Bereich nach oben etwa zeigt die offenen Anwendungen. Die Geste funktioniert sowohl vom Homescreen aus als auch innerhalb einer App. Per Swipe nach links oder rechts können Anwender durch alle offenen Programme scrollen. Ein zweiter Wisch nach oben öffnet den App-Launcher, der alle installierten Anwendungen enthält.


Android P bietet zudem neue Features für den Gesundheits-Bereich. Eine Dashboard-Ansicht veranschaulicht Anwendern, wie viel Zeit sie täglich damit verbringen, ihr Android-Smartphone und die einzelnen Anwendungen darauf zu nutzen. Timer ermöglichen es, die Nutzungszeit für bestimmte Apps einzuschränken. Sobald die eingetragene Zeit abgelaufen ist, graut Android das jeweilige Programm-Icon aus und ermöglicht den Zugriff erst wieder am nächsten Tag.

Passend dazu gibt es die Funktion „Wind Down“, die das Ablenkpotenzial des Smartphones vor dem Zubettgehen minimieren soll. Stellt der Nutzer Wind Down zum Beispiel auf 23 Uhr, erscheint die Android-UI ab diesem Zeitpunkt nur noch in Grautönen. So soll die Smartphone-Nutzung unattraktiv werden.

Die Entwickler-API „Slices“ ermöglicht es Drittanbietern, Funktionsbuttons und Infoboxen ihrer Anwendungen in diverse Bereiche der Android-UI zu integrieren. Sucht der Nutzer zum Beispiel im Browser nach dem Transport-Anbieter Lyft, zeigen App-„Slices“ den Preis für die Fahrt an. Der Kunde kann die Dienstleistung zudem via Slice buchen, ohne die App öffnen zu müssen.

Neue Features für Gmail, Google Fotos und Assistant
Google Fotos erhält im Laufe der nächsten Monate mehrere zusätzliche Features. Erscheint auf einem Bild beispielsweise ein Google bekanntes Gesicht, schlägt die App vor, das Foto an die abgebildete Person zu schicken. Nutzer können darüber hinaus die Hintergrundfarbe auf Fotos entfernen und ein Schwarzweiß-Bild automatisch kolorieren lassen.

Gmail wird künftig über die Funktion „Smart Compose“ komplette Sätze vorschlagen, um Anwendern die Zeit des Tippens zu sparen.

Googles auf Machine Learning und Künstliche Intelligenz setzender Assistant wird in Zukunft noch intelligenter. Das Kommando „Ok Google“ ist nicht mehr für jede Anfrage nötig. Es reicht, den Ausdruck einmal auszusprechen. Danach können Anwender mehrere Anfragen hintereinander stellen, ohne jedes Mal erneut „OK Google“ sagen zu müssen.



Google Duplex ermöglicht es dem Assistant sogar, eigenständig Telefongespräche zu führen. Google demonstrierte das Feature via Anruf zu einem Friseurgeschäft. Der Assistant vereinbarte im Dialog mit der Angestellten des Ladens einen Termin für den nächsten Haarschnitt des Nutzers.

Kommentare

deus-ex
deus-ex09.05.18 14:07
Ich dachte ja die jährlichen iOS Keynotes sind öde. Aber die Android P Keynote hat den Vogel an Langeweile abgeschossen.

Naja. Smartphone (Betriebssystem) sind ausentwickelt.
0
Holly
Holly09.05.18 14:13
Es ist wirklich krass wie sie einfach die Homescreen-Gesten einfach eins zu eins übernommen haben...
+3
tk69
tk6909.05.18 14:26
War was interessantes dabei? Habe es zwar in der zweiten Hälfte mal mitgeschaut, aber irgendwie war es wie Wetten dass...? auf Malle.
+3
JoMac
JoMac09.05.18 15:12
MTN
Google Duplex ermöglicht es dem Assistant sogar, eigenständig Telefongespräche zu führen. Google demonstrierte das Feature via Anruf zu einem Friseurgeschäft. Der Assistant vereinbarte im Dialog mit der Angestellten des Ladens einen Termin für den nächsten Haarschnitt des Nutzers.
Jo. Zukünftig kann man dann telefonieren lassen. Man muss nur aufpassen, wen das Phone selbständig alles so anruft und von einem ausplaudert
+2
marco m.
marco m.09.05.18 15:30
Was will man auch anderes auf eine Apple-Seite erwarten? Wenn dann Apple was davon in iOS integriert, ist das voll cool.
Chevy Chase: Twenty years ago, we had Steve Jobs, Johnny Cash and Bob Hope. Now we have no jobs, no cash, and no hope. Please, don't let Kevin Bacon die!
+3
schaudi
schaudi09.05.18 15:38
Google Duplex ermöglicht es dem Assistant sogar, eigenständig Telefongespräche zu führen. Google demonstrierte das Feature via Anruf zu einem Friseurgeschäft. Der Assistant vereinbarte im Dialog mit der Angestellten des Ladens einen Termin für den nächsten Haarschnitt des Nutzers.
Also
1. "Klingen" tut der GA ja schon recht gut
2. Mit Verlaub - die "Angestellte" klang aber sehr nach Computer
3. Man sagt erst seinem Handy es soll anrufen um dann der Tante dort etwas zu sagen? Welche Zeitersparniss hat man da? Hätte der GA sofort sämtliche vom Nutzer angegeben Infos durchgegeben, hätte das Gespräch nicht länger gedauert, als die Interaktion zwichen dem Nutzer und GA. Das Telefonat hat nur so lange gedauert, weil GA nur Kleckerweise die Daten durchgibt - wenn ich irgendwo anrufe und einen Termin machen will sag ich auch gleich alles.
4. Was wäre passiert wenn im Zeitraum überhaupt kein freier Termin vorhanden gewesen wäre? Was passiert generell bei Rückfragen, die GA aufgrund mangelnder voriger Dateneingabe nicht beantworten kann?
5. Ein "einfacher Damenhaarschnitt" wird angeben vom GA. Da die Infos "Damen-" nicht in der Eingabe war, hat GA die Information über das Geschlecht aus dem Nutzerprofil!? Welche Informationen über seinen Nutzer kann GA so noch ohne weiteres über Telefon an 3. weitergeben? Muss man sich erstmal Stundenlang damit beschäftigen, welche Daten an wenn weitergeben werden dürfen, nur um dann ab und an mal 30sec (länger hätte das mit tatsächlicher Interaktion nicht gedauert) für ein Telefonat zu sparen, die man aber ja sowieso wieder verplämpert während man GA ja überhaupt ersteinmal sagt, was er sagen soll!?

6. zuletzt finde ich es echt fragwürdig, dass der Angerufene nicht nur nicht darüber aufgeklärt wird gerade mit einem Computer zu sprechen, sondern dahingehend sogar expliziet belogen wird!!
Hier persönlichen Slogan eingeben.
0
BigLebowski
BigLebowski09.05.18 15:47
Holly
Es ist wirklich krass wie sie einfach die Homescreen-Gesten einfach eins zu eins übernommen haben...

ist doch nicht schlimm, webOS hat es damals leider nicht gepackt,
daher können sich Apple & Google ruhig dran bedienen
+2
schaudi
schaudi09.05.18 15:56
marco m.
Was will man auch anderes auf eine Apple-Seite erwarten? Wenn dann Apple was davon in iOS integriert, ist das voll cool.

Wieso? Einige der Funktionen gibt es doch bereits in iOS (Gesten,Nutzungszeitüberwachung/Kinder...),
der Rest in abgewandelter Art - während Android nun Nachts grau wird und unangenehm, passt Apple die Wiedergabe bereits so an, dass das Display im Dunkeln angenehmer zu lesen ist. Naja...

Und das Hey Google jetzt auch mehrere Befehle hintereinander erkennt ist schön und gut, würd ich mir auch für Siri wünschen, aber auch nicht DAS Weltbewegende Feature für ein Major System Update. Apropo gibt es dann auch eine Endformel oder bestimmte Zeit, die Hey Google dann aktiviert bleibt, oder hört es dann erstmal ne weile mit?
Hier persönlichen Slogan eingeben.
0
Hühnchen
Hühnchen09.05.18 16:01
Ich stell mir gerade vor, mich würde hier ne Siri anrufen. Ich würde glaube ich sofort auflegen . Die Friseure wären Sicher alle begeistert, wenn sie sich jetzt auch noch statt mit ihren Kunden, mit Sprachcomputern rumärgern müssten.
Es wäre doch sicherlich gerade für Google besser gewesen den Unternehmen ein einfach zu Bedienendes Reservierungssystem anzubieten und darauf könnte dann Android selbstständig übers Internet im Hintergrund zugreifen und mir dann die Möglichkeit anzeigen, statt das alles im menschliche Geräusche umzuwandeln, um sich dann mit der dämlichen Azubine rumzuärgern.
+1
Langer
Langer09.05.18 16:25
Passend dazu lache ich gerade über folgendes Buch: Qualityland:

PS: Manchmal bleibt das Lachen auch im Hals stecken.
+1
Stereotype
Stereotype09.05.18 16:41
Nerds ohne Social life werden die neuen Funktionen lieben
-2
stx
stx09.05.18 19:10
Holly

zur frage, wer hier von wem was übernommen hat, einen bescheidenen hinweis, frei nach dem motto: "wer hats erfunden?"



alles schon seit digitalen erdzeitaltern, ganz ohne hausknopf
computer helfen uns bei der bewältigung von problemen, die wir ohne sie gar nicht hätten. ;-)
+4
FoneBone
FoneBone10.05.18 11:31
Einen Ölwechsel vereinbaren, den Klempner unter der Woche aufbieten, einen Termin beim Frisör vereinbaren... Na, zum Glück hilft mir Google, diese täglichen Herausforderungen zu meistern.

Schluss mit Schweissausbrüchen vor einem Telefonat. Nicht wissen, was ich sagen soll, wenn der Handwerker sich am Apparat meldet. Wer kennt sie nicht, diese Horrorszenarien des Alltags?

Mal im Ernst, Google. Hältst du uns für sozial derart degeneriert, dass wir selbst simple Gespräche nicht mehr selbst führen können? Was folgt danach? Kann ich den Bot ans Bewerbungsgespräch schicken?

Das ist doch einfach totaler Quatsch, ausgedacht von von Tech-Nerds mit sozialen Bindungsproblemen. Verschont uns bitte davon!
-2
matt.ludwig10.05.18 11:45
FoneBone

Das ist doch einfach totaler Quatsch, ausgedacht von von Tech-Nerds mit sozialen Bindungsproblemen. Verschont uns bitte davon!

Du scheinst selbst ganz andere Probleme zu haben und iiiiih es ist etwas neues - das in der Zukunft definitiv so kommen wird. Dann bist du vermutlich derjenige mit Schweißausbrüchen wenn du mit deinem Smartphone reden sollst.
0
ratti
ratti10.05.18 12:12
Derzeit sind diese ganzen KI-Assistenten, um es mal vorsichtig auszudrücken: Fragwürdig. Oder ehrlich gesagt: Schrott. Für mehr als „OK Google. Navigiere Zuhause. Taschenlampe an.“ taugt das alles nicht. Alexa kauft den Besitzer arm. Siri kenne ich nicht, was man so hört, eher noch schlimmer.

ABER.

Um von A nach C zu kommen, muss man erstmal durch B fahren, und da sind wir gerade. Wir bleiben da aber nicht. Die Assistenten können Sachen, die ich vor 10 Jahren für technisch unmöglich gehalten habe, und sie werden in weiteren 10 Jahren Sachen können, die ich ihnen jetzt niemals zutraue.

Was jetzt auf einer Keynote medienwirksam gezeigt wird, wird in 10 Jahren tatsächlich genutzter Alltag sein.

In diesem Sinne: Ich werde dieses Feature nicht nutzen. Aber Google ist auf dem richtigen Weg.

…und in 20 Jahren rufen wir für das Smartdevice an und machen die Termine.

Zu den Kommentaren hier im Board:
„Google hat einen hässlichen Graymode als Nightmode“: Nein. Artikel nicht gelesen. Nightshift-Rotfilter für abendliche Nutzung gibt es schon lange. Der Graumodus soll dafür sorgen, dass der Nutzer sein Device jetzt mal weglegt. Meines Erachtens Schwachsinnsidee, aber sachlich was anderes.

„Das Feature hat iOS schon lange“. Das hat auch Android schon lange. Hier wandern Features von (3rd-Party-)Apps direkt ins System.

„Die Gesten sind geklaut!!!1111elf!“ Ach kommt, Leute. Jedesmal das gleiche. Und dann postet einer, dass WebOS das schon hatte. Und dann postet einer, dass das 1970 in Startrek vorkam. Und dann postet einer einen Entwurf aus den 50ern, wo Dieter Rams das für eine Butterdose von Braun entworfen hat. Der hat das aber auch bloß bei einer großkalibrigen Kanonen der kaiserlichen Husaren aus den Türkenkriegen abgeguckt… Design ist nunmal Design, und „Reload“ ist „nochmal rund wie im Karussel“ und nicht rauf-runter-tipptipp-runte, das wird immer ales ähnlich sein wie bei Auto-Armaturenbrettern.
+3
An_Dy10.05.18 12:28
tk69
War was interessantes dabei? Habe es zwar in der zweiten Hälfte mal mitgeschaut, aber irgendwie war es wie Wetten dass...? auf Malle.
Wirst nächstes Jahr auf der WWDC 2019 sehen
-1
dark-hawk11.05.18 10:43
Google Lens wurde in dem Bericht total vergessen, wenn die Bildanalyse tatsächlich so akurat und schnell funktioniert wie in der Demo gezeigt, ist das ein ziemlich massiver Durchbruch für ML.
+3
marco m.
marco m.12.05.18 16:24
ratti
Derzeit sind diese ganzen KI-Assistenten, um es mal vorsichtig auszudrücken: Fragwürdig. Oder ehrlich gesagt: Schrott. Für mehr als „OK Google. Navigiere Zuhause. Taschenlampe an.“ taugt das alles nicht. Alexa kauft den Besitzer arm. Siri kenne ich nicht, was man so hört, eher noch schlimmer.

Du kennst es nicht, du nutzt es nicht, spukst hier aber Töne, als wärst du der Experte Nr.1. Das sind mir die Liebsten! Google kann bedeutend mehr, Siri kann auch mehr, und bei "Alexa" wird man überhaupt nicht arm, denn das kann man deaktivieren. So viel zu deinem "Fachwissen"!
Chevy Chase: Twenty years ago, we had Steve Jobs, Johnny Cash and Bob Hope. Now we have no jobs, no cash, and no hope. Please, don't let Kevin Bacon die!
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.