Oh nein! Ich bin Agent geworden!
![]()
Als Pixel-Telefonbenutzer, der das Telefon seit sechseinhalb Jahren verwendet, habe ich gestern Morgen die Made by Google-Konferenz mit einem Stirnrunzeln verfolgt.

#DeadInside
Als Produkt der zehnten Generation der Produktreihe brachte uns das Pixel 10 keine Transformation von der Produktform zur Nutzungsform wie das vorherige iPhone X. Stattdessen verfolgte es einen konservativen Ansatz zu einer Zeit, als selbst das iPhone sich auf größere Designänderungen vorbereitete.
Rein aus Hardware-Sicht haben die vier neuen Pixel-Telefone dieses Jahres – 10, 10 Pro, Pro XL und Pro Fold – außer dem TSMC-Prozessor keine Highlights, und bei ihren Bildgebungsfunktionen gab es sowohl Fortschritte als auch Rückschläge.
Wir hatten einmal einen passenderen Namen für dieses Upgrade: Pixel 9s.
![]()
Da das Produkt selbst bereits durchschnittlich ist, ist die „Made by Google“-Konferenz selbst noch schwieriger zu beschreiben.
Aus normaler Sicht sollte der Zweck einer Produkteinführung darin bestehen, das Produkt klar zu präsentieren und vorzustellen, seine Vorteile so weit wie möglich hervorzuheben und dann allen den Preis mitzuteilen.

Google scheint jedoch andere Vorstellungen von der Markteinführung zu haben.
Das diesjährige „Made by Google“-Event war eher eine stark kommerzialisierte Google-Jahresversammlung als eine Pressekonferenz. Selbst Jimmy Fallon konnte die verschiedenen Szenenfragmente nicht zusammenfügen, um die wichtigste Frage zu beantworten:
Welche Upgrades wurden am diesjährigen Pixel vorgenommen?
Echte KI-Hardware erfordert nur die einfachste Form
Wir müssen zugeben: Google verfügt mit seinen Tools Gemini, Veo 3, Flow, Genie 3 und anderen zweifellos über eines der leistungsstärksten KI-Modelle auf dem Planeten, und es braucht nicht einmal eines.

Genie 3 kann „interaktive Simulationsumgebungen“ in Echtzeit mit 720p 24 Bildern anstelle von Video generieren. | YouTube @Fireship
Google ist sich natürlich des Wertes von Alan Kays Aussage bewusst, dass „Leute, die es mit Software ernst meinen, ihre eigene Hardware herstellen sollten“. Dies lässt sich daran erkennen, dass Google vor zehn Jahren die vom Hersteller produzierte Nexus-Reihe von Mobiltelefonen aufgegeben und für Pixel auf einen vollständig internen Entwicklungsprozess umgestiegen ist.
Das Problem besteht darin, dass sich die Definition von „Software“ im Laufe der Zeit ändert:
- Die erste Pixel-Generation im Jahr 2016 stellte eine standardisierte Hardware für das Android-System dar.
- Das Pixel 2 stellte 2017 standardisierte Hardware für die rechnergestützte Fotografie dar.
- Das Pixel 6 von 2021 kehrt zur standardisierten Hardware für das auf Android 12 basierende Material You-Design zurück.
Was das diesjährige Pixel 10 betrifft, ist die iFan-Redaktion nach Durchsicht der gesamten Pressekonferenz der Ansicht, dass Googles Absichten bereits klar sind:
Die Pixel 10-Serie ist eine Reihe von KI-Hardware, die vollständig für Gemini entwickelt wurde. Ob Rabbit R1, Humane AI Pin oder das von OpenAI und Jony Ive entwickelte KI-Zubehör – im Vergleich zum Pixel 10 müssen sie zugeben, dass sie nicht rein genug sind.
Wenn wir Alan Kays Formel verwenden, um es zu beschreiben, hat Google tatsächlich allmählich von „das Android-System ernst genug nehmen“ zu „KI ernst genug nehmen“ gewechselt – das Pixel-Telefon als Hardwareform erfordert keine Änderungen.
![]()
Foto|PhoneArena
Mit anderen Worten: Die diesjährige Pixel 10-Serie ist für Android 16 oder Googles rechnergestützte Fotografie eigentlich nicht so wichtig.
Im Gegenteil, das Pixel 10 ist eine reale Erweiterung des Gemini, eines 799 Dollar teuren Portals zur KI, das nebenbei auch Anrufe tätigen und Fotos aufnehmen kann.
Aber das ist nicht die KI-Hardware, die wir wollen.
Natürlich ist es nicht falsch, dass Google Pixel zu einem Hardware-Portal exklusiv für Gemini macht. Denn egal wie sehr die Hardwareform des Telefons verbessert wird, es ist viel praktischer als das bewusst differenzierte Erscheinungsbild von Rabbit R1 und Humane AI Pin.

Bild: CNET
Doch auch wenn das aktuelle Pixel als KI-Hardware betrachtet werden kann, löst es dennoch kein sehr wichtiges Problem:
Seine Arbeitslogik unterscheidet sich von der KI-Hardware, die wir erwartet haben.
Ob in Science-Fiction oder konzeptionellen Darstellungen, wir geben KI oft eine konkrete Form mit einer Funktion, sei es ein T-1000 Terminator aus flüssigem Metall oder die roten Augen von HAL 9000 und MOSS:

Bild|The Wandering Earth Wiki
Da wir mit der Installation von MOSS im Gehäuse einverstanden sind, ist die Installation von Gemini im Pixel-Telefon kein Problem. Das Problem besteht jedoch darin, dass die Art und Weise, wie Benutzer Gemini verwenden, sich stark von der Art und Weise unterscheidet, wie sich Liu Peiqiang die Verwendung von MOSS vorgestellt hat.
Während dieser Pressekonferenz waren die beiden neuen KI-Funktionen, die Google hauptsächlich vorführte, Camera Coach und Magic Cue sowie die Gemini-Fotobearbeitung im Album, alle über verschiedene Systemfunktionen verstreut, und einige werden erst während der Verwendung angezeigt .
Dies steht im völligen Widerspruch zu den Vorstellungen, die sich die Menschen in den letzten Jahrzehnten von KI gemacht haben.
Ich brauche Magic Cue nicht, um relevante Gesprächsinformationen erst nach einem Anruf auf dem Bildschirm anzuzeigen. Ich möchte, dass die KI automatisch meine Reiseinformationen und Buchungs-E-Mails überprüft und bei Fehlern automatisch die Fluggesellschaft anruft, um das Ticket zu erstatten.

Ich brauche Google Fotos nicht, um mich zu zwingen, auf die Schaltfläche „Bearbeiten“ zu klicken, bevor das Dialogfeld „Gemini“ angezeigt wird. Ich muss Gemini direkt aufwecken: Helfen Sie mir, die verschwommenen Fotos auf den 200 Barfotos zu löschen, die ich gerade aufgenommen habe, passen Sie Helligkeit und Farbe an und wählen Sie dann 9 verschiedene Cocktailfotos aus, um sie auf „WeChat Moments“ zu veröffentlichen .

In den Science-Fiction-Werken und KI-Konzepten des letzten Jahrzehnts sollte die Betriebslogik der KI darin bestehen, dass menschliche Benutzer Anweisungen erteilen, die KI diese Anweisungen automatisch versteht und alle umgebenden Ressourcen aktiv kombiniert, um Aufgaben automatisch auszuführen , anstatt dass ich die KI mit einem Rollstuhl an die Vorderseite des Tisches schicke, ihr Stift, Tinte, Papier und Tuschestein gebe und sie dann mit dem Malen beginnt.

Bild: 36Kr
Mit anderen Worten: Die KI-Funktionen des Pixels sind mittlerweile über das gesamte System verstreut . Sie müssen zunächst eine Aufgabe starten, bevor Sie die entsprechende Hilfe von der KI erhalten können – dazu gehören viele Funktionen, die problemlos von der KI in unserem Namen hätten verbunden und erledigt werden können, wie etwa das Posten von Fotos in einer bestimmten sozialen Software.

Vor sieben Jahren konnte Bixiby mithilfe aktiver Anpassung ähnliche Anwendungsfunktionen implementieren, das Pixel mit seiner stärkeren Hardware- und Softwareintegration ist dazu jedoch nicht in der Lage. | YouTube @爱否科技
Noch schwieriger zu verstehen ist die Bildkompositionshilfe Camera Coach in der Kamera. Als wir die Demonstration zum ersten Mal sahen, dachten wir, sie könne den Bildschirminhalt in Echtzeit lesen und über die zugrunde liegende Schnittstelle des Systems Bildkompositionsvorschläge generieren.
In Wirklichkeit müssen Sie die Funktion jedoch manuell aktivieren. Gemini nimmt dann in aller Ruhe ein Foto auf und empfiehlt Ihnen darauf basierend verschiedene Kompositionsmethoden. Wenn die Perspektive nicht passt, wird sogar direkt die KI hinzugezogen, um Ihnen beim groben Zeichnen zu helfen. Anschließend passen Sie die Position nach und nach gemäß den Anweisungen der KI an, bis Sie den Auslöser drücken:

Bild | YouTube @9to5Google
Ganz abgesehen davon, wie die den Arbeitsablauf unterbrechende Operation des absichtlichen Anhebens der Hand zum Klicken konzipiert wurde, scheint die gesamte Camera Coach-Funktion etwas zu sein, das Google erzwungen hat, um einen Weg zu finden, die funktionalen KPIs der Gemini-Abteilung und der Pixel-Abteilung zu integrieren.
Die ursprüngliche Absicht der Kompositionshilfe sollte darin bestehen, Ihnen beim Aufnehmen von Bildern zu helfen. Nach einem solchen Vorgang sind die aktuelle Inferenzgeschwindigkeit und die Vorschlagsergebnisse jedoch nicht so zufriedenstellend, selbst wenn die Rechenleistung von Tensor G5 das kleine Modell am Ende unterstützt.
Während sie auf KI-Operationen warten, haben effiziente Freunde bereits mehrere Haltungen geändert, vorwärts und rückwärts, nach links und rechts, nach oben und unten geschwenkt, um eine Reihe von Fotos aufzunehmen, und können die Leistung des aktualisierten ISP von Tensor G5 besser ausspielen.
Diese Umkehrung der Kontrolle stellt, wie andere Gemini-KI-Funktionen in Android 16, die von Ihnen die Ausführung bestimmter Aktionen erfordern, bevor sie eingreifen, unsere bisherigen Erwartungen an KI völlig auf den Kopf.
Wie bin ich zum Agenten geworden, der Daten transportiert und Informationen an Gemini liefert?

Ironischerweise wird mit Gemini
Betrachten Sie es aus einer anderen Perspektive. Das Pixel 10 ist kein KI-Telefon für Menschen, sondern eher ein KI-Telefon für Gemini. Alle neuen Funktionen werden von Menschen genutzt, die Gemini Informationen bereitstellen, die dann von der KI integriert werden.
Diese Art von KI, die über funktionale Prozesse verteilt ist, verhindert zwar objektiv eine übermäßige Einbindung, kann aber auch dazu führen, dass sich das Benutzererlebnis so anfühlt, als würde die KI die Kontrolle übernehmen. Gemini ist wie ein Elternteil, der mit seinem Kind eine Sandburg baut. Sie warten, bis das Kind den Sand sammelt und eine Anfrage stellt, bevor sie beginnen, den Umriss der Burg zu formen.
Darüber hinaus müssen wir uns vor einer Sache in Acht nehmen: Das Pixel 10 könnte leicht zu einem schlechten Beispiel für andere Mobiltelefonhersteller werden – ein schlechtes Beispiel, das sich nur auf den KI-Fortschritt verlässt und die Hardware-Grundlage ignoriert.
![]()
Bild: Android Central
Wenn Google in Zukunft weiterhin die gleiche Taktik anwendet, wird dies zu sehr schlechten Ergebnissen führen: Das Pixel, das die Pixel-Benutzer wollen, wird verschwinden, und das echte KI-Telefon, das die KI-Benutzer wollen, wird überhaupt nicht so sein .
Diese Form zukünftiger Produkte ist wahrscheinlich etwas, das weder Google noch die Verbraucher sehen möchten.
#Willkommen beim offiziellen öffentlichen WeChat-Konto von iFaner: iFaner (WeChat-ID: ifanr), wo Ihnen so bald wie möglich weitere spannende Inhalte präsentiert werden.
