zurück zum Artikel

Was wir von Alexa & Co. in Zukunft erwarten dĂŒrfen

| Nico Jurran, Stefan Porteck

Amazon, Google und Apple wollen mit ihren Assistenten nach dem Wohnzimmer als NÀchstes das Auto erobern. Was in beiden Bereichen bereits möglich ist, ist vor allem in den USA zu sehen.

Mehr Infos

Wer sich fĂŒr die Zukunft von Alexa und Google Assistent interessiert, muss einen Blick ĂŒber den großen Teich werfen. Denn in den USA sind schon einige smarte GerĂ€te mit integriertem Sprachassistenten auf dem Markt oder zumindest konkret angekĂŒndigt, die es noch nicht nach Deutschland geschafft haben.

Googles Smart-Display Nest Hub Max etwa: Das hat anders als der hierzulande erhĂ€ltliche Nest Hub zusĂ€tzlich zum Bildschirm eine Kamera, sodass sich darĂŒber VideogesprĂ€che fĂŒhren lassen. Und der Max bietet eine weitere Besonderheit: Gestensteuerung. Will man etwa eine laufende Musikwiedergabe pausieren, muss man nur die Hand heben.

Bei manchem hiesigen Alexa-Fan steht wiederum der Fire TV Cube auf der Wunschliste. Der WĂŒrfel ĂŒbernimmt an den Fernseher angeschlossen die Aufgaben eines Fire-TV-Sticks. Mit seinem eigenen Lautsprecher lĂ€sst er sich aber auch wie ein Echo nutzen.

Viele wĂŒnschen sich einen (beschrĂ€nkten) Offline-Betrieb fĂŒr ihren Sprachassistenten. Dann wĂŒrde dieser auf dem Smart-Speaker bei einer Internetstörung kĂŒnftig nicht komplett verblöden, zudem wĂŒrden keine Sprachaufzeichnungen mehr das Heim verlassen.

Zumindest Google hat eine kleine Offline-Erkennung schon einmal per Update nachgeliefert: beim Befehl „Stopp“, um Wecker und Timer auf Google-Home-Lautsprechern auf Zuruf zu beenden.

In den USA ist bereits „Echo Auto“ erhĂ€ltlich, mit dem Alexa in beliebige Fahrzeuge kommt. FĂŒr den Betrieb ist allerdings hier noch ein Smartphone mit passender App erforderlich.

In den USA ist bereits „Echo Auto“ erhĂ€ltlich, mit dem Alexa in beliebige Fahrzeuge kommt. FĂŒr den Betrieb ist allerdings hier noch ein Smartphone mit passender App erforderlich.

Auf seiner Entwicklerkonferenz 2019 stellte Google außerdem ein neues API vor, das die Ansprache ausgewĂ€hlter Smart-Home-GerĂ€te ohne Cloud ermöglicht. Smarte Speaker brĂ€uchten dazu nur ein vergleichsweise kleines Update, damit der Assistent die Namen gĂ€ngiger RĂ€ume und GerĂ€te wie KĂŒche, Flur, Lampe, Thermostat und Basisbefehle wie „an“ und „aus“ offline versteht. VollstĂ€ndig aus der Cloud und auf die heimischen GerĂ€te dĂŒrfte die Spracherkennung bei den aktuellen Smart-Speakern jedoch in naher Zukunft nicht wandern. DafĂŒr sind die Anforderungen an die Rechenleistung und den GerĂ€tespeicher zu groß – es geht ja nicht nur darum, die einzelnen Worte zu erkennen, sondern sie in einen Zusammenhang zu stellen.

Doch selbst das wĂ€re nur die halbe Miete fĂŒr den Offline-Betrieb: ZusĂ€tzlich mĂŒssen die Assistenten in den Smart-Speakern direkt mit den Smart-Home-GerĂ€ten kommunizieren – derzeit spricht meist die Google-Cloud die Cloud des GerĂ€teherstellers an, die dann wiederum das GerĂ€t benachrichtigt. FĂŒr einen lokalen Zugriff benötigen die IoT-GerĂ€te eine standardisierte Schnittstelle im LAN, wofĂŒr Google vor allem HTTP-Requests vorsieht. Die Hersteller der IoT-GerĂ€te mĂŒssen mitziehen, sie brauchen in ihrer Schnittstelle zum Google-Assistant aber lediglich ein paar Zeilen Code zu Ă€ndern, um den lokalen Zugriff ĂŒbers heimische Netzwerk zu aktivieren. Außen vor blieben damit aber etliche GerĂ€te, die auf Funkstandards wie Bluetooth oder Zigbee setzen, zumindest solange deren Bridge nicht eine lokale Schnittstelle bekommt.

Anders bei Amazon: Der Echo Plus und der Show der 2. Generation haben einen integrierten Zigbee-Hub, der die IoT-GerĂ€te direkt anspricht. Denkbar ist, dass Google seine kommende Assistenten-Generation ebenfalls entsprechend aufrĂŒstet.

Die Entwickler von Alexa & Co. entwerfen nicht nur neue GerÀte und BetÀtigungsfelder, sondern statten die bestehenden Systeme mit neuen Funktionen und Diensten aus.

Android Automotive Àhnelt dem bekannten Android Auto, hat aber zusÀtzlich auch Zugriff auf Fahrzeugfunktionen.

Android Automotive Àhnelt dem bekannten Android Auto, hat aber zusÀtzlich auch Zugriff auf Fahrzeugfunktionen.

Bereits seit Mai bietet Amazon amerikanischen Alexa-Nutzern einen neuen Eingabemodus. In diesem reagiert die Assistentin darauf, ob der Nutzer flĂŒstert – und antwortet ihrerseits leiser. Das ist beispielsweise dazu gedacht, um ein nebenan schlafendes Kind durch die Spracheingaben beziehungsweise die Antwort von Alexa nicht zu wecken.

FĂŒr großes Aufsehen sorgte zudem ein Patent seitens Amazon, das beschreibt, wie Alexa auf BefehlssĂ€tze reagieren könnte, bei denen das Aktivierungswort am Ende steht. SĂ€tze wĂŒrden dann mit einer (vom Nutzer einstellbaren) LĂ€nge von 10 bis 30 Sekunden auf dem GerĂ€t zwischengespeichert und nur dann in die Cloud geschickt, wenn Alexa ihr Codewort hört. Die beschriebene Technik ist laut Amazon derzeit noch nicht im Einsatz, jegliche Prognosen ĂŒber ihre kĂŒnftige Verwendung seien „höchst spekulativ“.

Apple hinkt derweil recht stark hinterher. Der HomePod genannte Smart-Speaker aus Cupertino beherrscht es bislang nicht, per Sprachbefehl an Siri gewĂŒnschte Musik von Spotify abzuspielen – was auf Smart-Speakern mit Alexa oder Google Assistant lĂ€ngst selbstverstĂ€ndlich ist. Immerhin kĂŒndigte das Unternehmen an, dieses Feature im Rahmen der kommenden Betriebssystemversion iOS 13 zu ermöglichen.

Das gilt auch fĂŒr die Möglichkeit, mehrere Nutzerprofile auf einem Smart-Speaker zu verwenden, die Apple beim HomePod ebenfalls mit iOS 13 einfĂŒhren soll. Siri soll dann verschiedene Anwender an deren Stimmen erkennen können und auf persönliche Anfragen zu Nachrichten, KalendereintrĂ€gen oder Erinnerungen individuell reagieren. Vielleicht gelingt es Apple, dieses Konzept besser und zuverlĂ€ssiger umzusetzen als die Konkurrenz.

Nach dem Wohnzimmer kommt das Auto: Dort mĂŒssen die Augen auf der Straße und die HĂ€nde am Lenkrad sein, weshalb Sprachsteuerung besonders sinnvoll und nĂŒtzlich ist. Entsprechend sind Apple und Google beim Thema Auto schon lĂ€nger mit von der Partie und auch Amazon macht sich bereit – und kampflos werden auch die altgedienten Pkw-Hersteller den Tech-Unternehmen nicht das Feld ĂŒberlassen.

Amazon möchte seine Assistentin in möglichst vielen GerĂ€ten sehen. DafĂŒr hat das Unternehmen das „Alexa Connect Kit mit fingernagelgroßem Modul (hier im Developer-Board) geschaffen.

Amazon möchte seine Assistentin in möglichst vielen GerĂ€ten sehen. DafĂŒr hat das Unternehmen das „Alexa Connect Kit mit fingernagelgroßem Modul (hier im Developer-Board) geschaffen.

Die derzeit stĂ€rksten Auto-Ambitionen hegt Google. Sein Assistant bekommt auf Smartphones einen Fahr-Modus mit angepasster OberflĂ€che samt großer Icons. Im Gegenzug stellt das Unternehmen seine „Android Auto“-App fĂŒr Smartphones ein.

Zudem zeigte Google im vergangenen Jahr, wie sein neues Betriebssystem „Android Automotive“ eigenstĂ€ndig auf der Hardware eines Prototypen-Fahrzeugs lief. Losgehen soll es im kommenden Jahr: Der Elektroflitzer Polestar 2 der gleichnamigen Volvo-Tochter wird zum Marktstart 2020 das erste Serienfahrzeug mit Android Automotive sein. DarĂŒber hinaus haben Fiat-Chrysler und Renault-Nissan-Mitsubishi Interesse an dem System bekundet.

Auch Alexa soll kĂŒnftig auf vier RĂ€dern stehen. Mit dem seit 2018 verfĂŒgbaren Auto SDK können Fahrzeughersteller den Service integrieren, doch trotz Amazons BemĂŒhungen konnte Alexa sich bislang noch nicht in großem Stil in Autos breit machen [3].

Bislang nur in den USA vertreibt Amazon den Adapter „Echo Auto“ als NachrĂŒstlösung fĂŒr vorhandene Entertainment-Systeme in jedem Kraftfahrzeug. Über die heimischen Smart-Home-Steuerung ist Alexa dann beispielsweise in der Lage, beim Wegfahren vernetzte Lampen auszuschalten und die HaustĂŒr abzuschließen.

Sowohl bei Android Auto als auch bei Echo Auto und bei Apple CarPlay benötigt man zum Betrieb zwingend ein Smartphone. Und ihre Assistenten können bestenfalls auf dem Infotainment-Display im Armaturenbrett erscheinen und nur mit Apps auf dem Smartphone interagieren, nicht aber mit dem Auto selbst.

BMW arbeitet dagegen an einem eigenen System namens BMW Natural Interaction, das Sprach- und Gestensteuerung kombiniert. WĂ€hrend der Fahrt könnte man so auf ein Restaurant am Straßenrand zeigen, um sich weitere Informationen geben lassen. BMW will nach eigenen Angaben die Sprach- und Gestenerkennung im Fahrzeug durchfĂŒhren, komplexe Sprachbefehle wie Tischreservierungen und AuskĂŒnfte sollen aber ĂŒber die BMW-Server laufen.

Der Erfolg von Assistenten im Auto hĂ€ngt nicht zuletzt davon ab, wie gut standortbezogene Dienste integriert sind – damit man wĂ€hrend der Fahrt beispielsweise nach der nĂ€chsten Tankstelle fragen kann oder nach einem Restaurant, das gerade geöffnet hat. Idealerweise programmiert der Assistent den Weg zum gewĂ€hlten Ziel dann gleich selbst in das Navigationssystem ein. Hier dĂŒrfte vor allem Google mit der bereits gesammelten Unmenge an vernetzten Informationen (Knowledge-Graph) und der engen VerknĂŒpfung mit den eigenen Diensten wie Google Maps gegenĂŒber Amazon, Apple und Pkw-Herstellern die Nase vorn haben.

Die Achillesverse der Autoassistenten ist die Internetverbindung: Anders als im Wohnzimmer muss es zumindest fĂŒr die Fahrt durch den Tunnel einen Offline-Modus geben, in dem sich Grundfunktionen wie Radio oder Klimaanlage noch per Sprachbefehlen bedienen lassen. Sonst fĂŒhlt man sich im modernen Connected Car bei jedem Funkloch plötzlich wieder wie in einem 40 Jahre alten VW-KĂ€fer.

Dieser Beitrag stammt aus c't 20/2019. (nij [4])


URL dieses Artikels:
https://www.heise.de/-4517356

Links in diesem Artikel:
[1] https://www.heise.de/news/Sprachassistenten-durchdringen-den-Alltag-4517343.html
[2] https://www.heise.de/news/Was-wir-von-Alexa-Co-in-Zukunft-erwarten-duerfen-4517356.html
[3] https://www.heise.de/news/Sprachassistenten-durchdringen-den-Alltag-4517343.html
[4] mailto:nij@ct.de