Die „Look and Talk“-Funktion bedeutet, dass Sie nicht „Hey Google“ sagen müssen

Wie oft müssen Sie im Alltag „Hey, Google“ sagen? Während der Google I/O-Veranstaltung kündigte das Unternehmen zwei neue Funktionen an: „Look and Talk“ und erweiterte „Quick Phrases“.

Mit Look and Talk können Sie direkt auf Ihr Nest-Gerät schauen und ihm eine Frage stellen, ohne das Hotword zu verwenden. Sie können sich für diese Funktion entscheiden, und sobald Sie dies tun, erfolgt die gesamte Verarbeitung auf dem Gerät. Das bedeutet, dass Google – oder sonst jemand – Ihr Gesicht nicht sehen oder Ihre Befehle hören kann.

Wie funktioniert es also genau? Google verwendet sechs verschiedene maschinelle Lernmodelle, um einen flüchtigen Blick von einem anhaltenden Augenkontakt zu unterscheiden. Wenn Sie mehrere Fragen stellen, ist dies eine großartige Lösung. Das Beispiel, das Google gab, war „Zeig mir Strände in der Nähe von Santa Cruz“ mit Folgefragen zu bestimmten Antworten.

Google Nest Hub 2nd Gen auf dem Tisch.
John Velasco / Digitale Trends

Das nächste ist Quick Phrases, eine Liste von Fragen, auf die Google ohne das Hotword sofort antworten kann. Dazu gehören allgemeine Befehle wie das Einstellen eines Timers, das Anhalten der Musik und mehr.

Hinter all diesen Upgrades stehen neue Sprachmodelle, die auf dem Gerät selbst laufen, um es schneller zu machen. Umfassendere neuronale Netze können die menschliche Sprache besser verstehen, selbst wenn sie gebrochen und abgehackt ist. In dem Beispiel gab Google Assistant dem Sprecher einen sanften Schubs, um seine Frage zu beenden, konnte aber auch bei unvollständigen Informationen unterscheiden, was der Sprecher wollte. Laut Google ist der Tensor-Chip die treibende Kraft hinter diesem Update, der die notwendige Rechenleistung bereitstellt, um die Sprachverarbeitung auf dem Gerät zu ermöglichen.

Weitere Neuigkeiten zur Google I/O 2022 finden Sie hier.