Google lädt die Suche mit neuen Funktionen auf
Die Suche ist das größte Google-Produkt und auf der I/O bringt das Unternehmen seinen Service auf ein neues Niveau. Zuvor hat Google Multisearch eingeführt, mit dem Sie beispielsweise ein Foto von einem Objekt aufnehmen und eine Suchanfrage auf dieses Foto stützen können. Jetzt hat das Unternehmen angekündigt, dass es noch in diesem Jahr Multisearch mit der zusätzlichen „Near Me“-Variablen und Scene Exploration Features einführen wird.
Mit der Multisearch- Variable „in meiner Nähe“ können Sie nach einem Teller mit Essen suchen, herausfinden, wie er heißt, und herausfinden, wo Sie ihn in Ihrer Nähe essen können. Es ist wie Shazam, aber für Suchanfragen.
Grundsätzlich können Sie gleichzeitig nach einem Foto und einer Frage suchen. Die Funktion funktioniert mit allem, z. B. einem Foto eines Gerichts, und fügt „in meiner Nähe“ hinzu – wodurch ein Restaurant angezeigt wird, das das Gericht serviert. Es scannt Fotos von Maps-Mitwirkenden, um mit dem gesuchten Foto übereinzustimmen. Die Funktion wird später in diesem Jahr für Englisch und andere Sprachen im Laufe der Zeit eingeführt.
Eine weitere kommende Suchfunktion ist Scene Exploration, mit der Sie Ihre Kamera schwenken und sofort Einblicke in mehrere Objekte aus einer größeren Szene gewinnen können. Sie können das gesamte Regal mit Ihrer Kamera inszenieren, und es werden hilfreiche Informationen angezeigt, die den Objekten überlagert sind.
Die Funktion verwendet Computer Vision, um mehrere Frames zu verbinden, aus denen die Szene und alle darin enthaltenen Objekte bestehen. Der Knowledge Graph zeigt die hilfreichsten Ergebnisse an. Google zitierte ein Regal mit Schokoladen, die Sie scannen und Informationen darüber erhalten können, welche Schokoriegel nussfrei sind. Es ermöglicht Ihnen, eine Art AR-ähnliche Überlagerung einer gesamten Szene vor Ihnen zu erhalten.