Was wir von Alexa & Co. in Zukunft erwarten dĂŒrfen
Amazon, Google und Apple wollen mit ihren Assistenten nach dem Wohnzimmer als NÀchstes das Auto erobern. Was in beiden Bereichen bereits möglich ist, ist vor allem in den USA zu sehen.
- Was Assistenten leisten [1]
- Test: Google Assistant, Alexa & Co.
- Der Assistent der Zukunft [2]
- Assistenten im Datenschutz-Check
Wer sich fĂŒr die Zukunft von Alexa und Google Assistent interessiert, muss einen Blick ĂŒber den groĂen Teich werfen. Denn in den USA sind schon einige smarte GerĂ€te mit integriertem Sprachassistenten auf dem Markt oder zumindest konkret angekĂŒndigt, die es noch nicht nach Deutschland geschafft haben.
Googles Smart-Display Nest Hub Max etwa: Das hat anders als der hierzulande erhĂ€ltliche Nest Hub zusĂ€tzlich zum Bildschirm eine Kamera, sodass sich darĂŒber VideogesprĂ€che fĂŒhren lassen. Und der Max bietet eine weitere Besonderheit: Gestensteuerung. Will man etwa eine laufende Musikwiedergabe pausieren, muss man nur die Hand heben.
Bei manchem hiesigen Alexa-Fan steht wiederum der Fire TV Cube auf der Wunschliste. Der WĂŒrfel ĂŒbernimmt an den Fernseher angeschlossen die Aufgaben eines Fire-TV-Sticks. Mit seinem eigenen Lautsprecher lĂ€sst er sich aber auch wie ein Echo nutzen.
Offline im Heim
Viele wĂŒnschen sich einen (beschrĂ€nkten) Offline-Betrieb fĂŒr ihren Sprachassistenten. Dann wĂŒrde dieser auf dem Smart-Speaker bei einer Internetstörung kĂŒnftig nicht komplett verblöden, zudem wĂŒrden keine Sprachaufzeichnungen mehr das Heim verlassen.
Zumindest Google hat eine kleine Offline-Erkennung schon einmal per Update nachgeliefert: beim Befehl âStoppâ, um Wecker und Timer auf Google-Home-Lautsprechern auf Zuruf zu beenden.
Auf seiner Entwicklerkonferenz 2019 stellte Google auĂerdem ein neues API vor, das die Ansprache ausgewĂ€hlter Smart-Home-GerĂ€te ohne Cloud ermöglicht. Smarte Speaker brĂ€uchten dazu nur ein vergleichsweise kleines Update, damit der Assistent die Namen gĂ€ngiger RĂ€ume und GerĂ€te wie KĂŒche, Flur, Lampe, Thermostat und Basisbefehle wie âanâ und âausâ offline versteht. VollstĂ€ndig aus der Cloud und auf die heimischen GerĂ€te dĂŒrfte die Spracherkennung bei den aktuellen Smart-Speakern jedoch in naher Zukunft nicht wandern. DafĂŒr sind die Anforderungen an die Rechenleistung und den GerĂ€tespeicher zu groĂ â es geht ja nicht nur darum, die einzelnen Worte zu erkennen, sondern sie in einen Zusammenhang zu stellen.
Lokaler Zugriff
Doch selbst das wĂ€re nur die halbe Miete fĂŒr den Offline-Betrieb: ZusĂ€tzlich mĂŒssen die Assistenten in den Smart-Speakern direkt mit den Smart-Home-GerĂ€ten kommunizieren â derzeit spricht meist die Google-Cloud die Cloud des GerĂ€teherstellers an, die dann wiederum das GerĂ€t benachrichtigt. FĂŒr einen lokalen Zugriff benötigen die IoT-GerĂ€te eine standardisierte Schnittstelle im LAN, wofĂŒr Google vor allem HTTP-Requests vorsieht. Die Hersteller der IoT-GerĂ€te mĂŒssen mitziehen, sie brauchen in ihrer Schnittstelle zum Google-Assistant aber lediglich ein paar Zeilen Code zu Ă€ndern, um den lokalen Zugriff ĂŒbers heimische Netzwerk zu aktivieren. AuĂen vor blieben damit aber etliche GerĂ€te, die auf Funkstandards wie Bluetooth oder Zigbee setzen, zumindest solange deren Bridge nicht eine lokale Schnittstelle bekommt.
Anders bei Amazon: Der Echo Plus und der Show der 2. Generation haben einen integrierten Zigbee-Hub, der die IoT-GerĂ€te direkt anspricht. Denkbar ist, dass Google seine kommende Assistenten-Generation ebenfalls entsprechend aufrĂŒstet.
Ăberarbeitet
Die Entwickler von Alexa & Co. entwerfen nicht nur neue GerÀte und BetÀtigungsfelder, sondern statten die bestehenden Systeme mit neuen Funktionen und Diensten aus.
Bereits seit Mai bietet Amazon amerikanischen Alexa-Nutzern einen neuen Eingabemodus. In diesem reagiert die Assistentin darauf, ob der Nutzer flĂŒstert â und antwortet ihrerseits leiser. Das ist beispielsweise dazu gedacht, um ein nebenan schlafendes Kind durch die Spracheingaben beziehungsweise die Antwort von Alexa nicht zu wecken.
FĂŒr groĂes Aufsehen sorgte zudem ein Patent seitens Amazon, das beschreibt, wie Alexa auf BefehlssĂ€tze reagieren könnte, bei denen das Aktivierungswort am Ende steht. SĂ€tze wĂŒrden dann mit einer (vom Nutzer einstellbaren) LĂ€nge von 10 bis 30 Sekunden auf dem GerĂ€t zwischengespeichert und nur dann in die Cloud geschickt, wenn Alexa ihr Codewort hört. Die beschriebene Technik ist laut Amazon derzeit noch nicht im Einsatz, jegliche Prognosen ĂŒber ihre kĂŒnftige Verwendung seien âhöchst spekulativâ.
Wo bleibt Apple?
Apple hinkt derweil recht stark hinterher. Der HomePod genannte Smart-Speaker aus Cupertino beherrscht es bislang nicht, per Sprachbefehl an Siri gewĂŒnschte Musik von Spotify abzuspielen â was auf Smart-Speakern mit Alexa oder Google Assistant lĂ€ngst selbstverstĂ€ndlich ist. Immerhin kĂŒndigte das Unternehmen an, dieses Feature im Rahmen der kommenden Betriebssystemversion iOS 13 zu ermöglichen.
Das gilt auch fĂŒr die Möglichkeit, mehrere Nutzerprofile auf einem Smart-Speaker zu verwenden, die Apple beim HomePod ebenfalls mit iOS 13 einfĂŒhren soll. Siri soll dann verschiedene Anwender an deren Stimmen erkennen können und auf persönliche Anfragen zu Nachrichten, KalendereintrĂ€gen oder Erinnerungen individuell reagieren. Vielleicht gelingt es Apple, dieses Konzept besser und zuverlĂ€ssiger umzusetzen als die Konkurrenz.
Im Auto
Nach dem Wohnzimmer kommt das Auto: Dort mĂŒssen die Augen auf der StraĂe und die HĂ€nde am Lenkrad sein, weshalb Sprachsteuerung besonders sinnvoll und nĂŒtzlich ist. Entsprechend sind Apple und Google beim Thema Auto schon lĂ€nger mit von der Partie und auch Amazon macht sich bereit â und kampflos werden auch die altgedienten Pkw-Hersteller den Tech-Unternehmen nicht das Feld ĂŒberlassen.
Die derzeit stĂ€rksten Auto-Ambitionen hegt Google. Sein Assistant bekommt auf Smartphones einen Fahr-Modus mit angepasster OberflĂ€che samt groĂer Icons. Im Gegenzug stellt das Unternehmen seine âAndroid Autoâ-App fĂŒr Smartphones ein.
Zudem zeigte Google im vergangenen Jahr, wie sein neues Betriebssystem âAndroid Automotiveâ eigenstĂ€ndig auf der Hardware eines Prototypen-Fahrzeugs lief. Losgehen soll es im kommenden Jahr: Der Elektroflitzer Polestar 2 der gleichnamigen Volvo-Tochter wird zum Marktstart 2020 das erste Serienfahrzeug mit Android Automotive sein. DarĂŒber hinaus haben Fiat-Chrysler und Renault-Nissan-Mitsubishi Interesse an dem System bekundet.
PlĂ€ne fĂŒr Alexa
Auch Alexa soll kĂŒnftig auf vier RĂ€dern stehen. Mit dem seit 2018 verfĂŒgbaren Auto SDK können Fahrzeughersteller den Service integrieren, doch trotz Amazons BemĂŒhungen konnte Alexa sich bislang noch nicht in groĂem Stil in Autos breit machen [3].
Bislang nur in den USA vertreibt Amazon den Adapter âEcho Autoâ als NachrĂŒstlösung fĂŒr vorhandene Entertainment-Systeme in jedem Kraftfahrzeug. Ăber die heimischen Smart-Home-Steuerung ist Alexa dann beispielsweise in der Lage, beim Wegfahren vernetzte Lampen auszuschalten und die HaustĂŒr abzuschlieĂen.
Sowohl bei Android Auto als auch bei Echo Auto und bei Apple CarPlay benötigt man zum Betrieb zwingend ein Smartphone. Und ihre Assistenten können bestenfalls auf dem Infotainment-Display im Armaturenbrett erscheinen und nur mit Apps auf dem Smartphone interagieren, nicht aber mit dem Auto selbst.
BMW arbeitet dagegen an einem eigenen System namens BMW Natural Interaction, das Sprach- und Gestensteuerung kombiniert. WĂ€hrend der Fahrt könnte man so auf ein Restaurant am StraĂenrand zeigen, um sich weitere Informationen geben lassen. BMW will nach eigenen Angaben die Sprach- und Gestenerkennung im Fahrzeug durchfĂŒhren, komplexe Sprachbefehle wie Tischreservierungen und AuskĂŒnfte sollen aber ĂŒber die BMW-Server laufen.
Und im Tunnel?
Der Erfolg von Assistenten im Auto hĂ€ngt nicht zuletzt davon ab, wie gut standortbezogene Dienste integriert sind â damit man wĂ€hrend der Fahrt beispielsweise nach der nĂ€chsten Tankstelle fragen kann oder nach einem Restaurant, das gerade geöffnet hat. Idealerweise programmiert der Assistent den Weg zum gewĂ€hlten Ziel dann gleich selbst in das Navigationssystem ein. Hier dĂŒrfte vor allem Google mit der bereits gesammelten Unmenge an vernetzten Informationen (Knowledge-Graph) und der engen VerknĂŒpfung mit den eigenen Diensten wie Google Maps gegenĂŒber Amazon, Apple und Pkw-Herstellern die Nase vorn haben.
Die Achillesverse der Autoassistenten ist die Internetverbindung: Anders als im Wohnzimmer muss es zumindest fĂŒr die Fahrt durch den Tunnel einen Offline-Modus geben, in dem sich Grundfunktionen wie Radio oder Klimaanlage noch per Sprachbefehlen bedienen lassen. Sonst fĂŒhlt man sich im modernen Connected Car bei jedem Funkloch plötzlich wieder wie in einem 40 Jahre alten VW-KĂ€fer.
Dieser Beitrag stammt aus c't 20/2019. (nij [4])
URL dieses Artikels:
https://www.heise.de/-4517356
Links in diesem Artikel:
[1] https://www.heise.de/news/Sprachassistenten-durchdringen-den-Alltag-4517343.html
[2] https://www.heise.de/news/Was-wir-von-Alexa-Co-in-Zukunft-erwarten-duerfen-4517356.html
[3] https://www.heise.de/news/Sprachassistenten-durchdringen-den-Alltag-4517343.html
[4] mailto:nij@ct.de
Copyright © 2019 Heise Medien