Experte verrät, welche Telefone KI-Fans brauchen, um Gemini und ChatGPT an ihre Grenzen zu bringen

Einer der offensichtlichsten – und ehrlich gesagt langweiligsten – Trends in der Smartphone-Branche der letzten Jahre war das unaufhörliche Gerede über KI-Erlebnisse. Vor allem Silicon-Krieger haben oft angepriesen, dass ihr neuester mobiler Prozessor KI-Prozesse auf dem Gerät wie die Videogenerierung ermöglichen würde .

Wir sind schon da, wenn auch noch nicht ganz. Inmitten der ganzen Hype-Show mit zufälligen KI-Tricks für Smartphone-Nutzer ging die Debatte kaum über die glitzernden Präsentationen über die neuen Prozessoren und sich ständig weiterentwickelnden Chatbots hinaus.

Erst als das Fehlen des Gemini Nano auf dem Google Pixel 8 für Aufsehen sorgte, erfuhr die breite Masse von der entscheidenden Bedeutung der RAM-Kapazität für die KI auf Mobilgeräten. Bald machte Apple auch deutlich , dassApple Intelligence auf Geräte mit mindestens 8 GB RAM beschränkt bleibt.

Bei dem Bild „KI-Telefon“ geht es jedoch nicht nur um die Speicherkapazität. Wie gut Ihr Telefon KI-gestützte Aufgaben ausführen kann, hängt auch von den unsichtbaren RAM-Optimierungen sowie den Speichermodulen ab. Und nein, ich spreche nicht nur von der Kapazität.

Speicherinnovationen auf dem Weg zu KI-Telefonen

Digital Trends hat mit Micron, einem weltweit führenden Anbieter von Speicher- und Speicherlösungen, zusammengearbeitet, um die Rolle von RAM und Speicher für KI-Prozesse auf Smartphones aufzuschlüsseln. Die von Micron erzielten Fortschritte sollten Sie auf dem Schirm haben, wenn Sie das nächste Mal ein erstklassiges Telefon kaufen.

Zu den neuesten Entwicklungen des in Idaho ansässigen Unternehmens gehören der mobile G9 NAND-UFS-4.1-Speicher und 1γ (1-Gamma) LPDDR5X-RAM-Module für Flaggschiff-Smartphones. Wie genau treiben diese Speicherlösungen die KI auf Smartphones voran, abgesehen von der Erhöhung der Kapazität?

Beginnen wir mit der G9 NAND UFS 4.1-Speicherlösung. Das übergeordnete Versprechen ist ein sparsamer Stromverbrauch, eine geringere Latenz und eine hohe Bandbreite . Der UFS 4.1-Standard kann maximale sequentielle Lese- und Schreibgeschwindigkeiten von 4100 MBit/s erreichen, was einer Steigerung von 15 % gegenüber der UFS 4.0-Generation entspricht und gleichzeitig die Latenzwerte reduziert.

Ein weiterer entscheidender Vorteil besteht darin, dass die mobilen Speichermodule der nächsten Generation von Micron eine Kapazität von bis zu 2 TB bieten. Darüber hinaus ist es Micron gelungen, ihre Größe zu verkleinern, was sie zu einer idealen Lösung für faltbare Telefone und schlanke Telefone der nächsten Generation wie das Samsung Galaxy S25 Edge macht.

Im Hinblick auf den RAM-Fortschritt hat Micron sogenannte 1γ LPDDR5X RAM-Module entwickelt. Sie liefern eine Spitzengeschwindigkeit von 9200 MT/s, können aufgrund der geringeren Größe 30 % mehr Transistoren unterbringen und verbrauchen dabei 20 % weniger Strom. Micron hat bereits die etwas langsamere 1β-RAM-Lösung (1-Beta) in den Smartphones der Samsung Galaxy S25 -Serie bereitgestellt.

Das Zusammenspiel von Speicher und KI

Ben Rivera, Director of Product Marketing in der Mobile Business Unit von Micron, erzählt mir, dass Micron vier entscheidende Verbesserungen an seinen neuesten Speicherlösungen vorgenommen hat, um schnellere KI-Operationen auf mobilen Geräten zu gewährleisten. Dazu gehören Zoned UFS, Datendefragmentierung, Pinned WriteBooster und Intelligent Latency Tracker.

„Diese Funktion ermöglicht es dem Prozessor oder Host, die am häufigsten verwendeten Daten eines Smartphones zu identifizieren und zu isolieren oder an einen Bereich des Speichergeräts namens WriteBooster-Puffer (ähnlich einem Cache) zu „pinnen“, um einen schnellen, schnellen Zugriff zu ermöglichen“, erklärt Rivera über die Pinned WriteBooster-Funktion.

Jedes KI-Modell – denken Sie an Google Gemini oder ChatGPT –, das Aufgaben auf dem Gerät ausführen möchte, benötigt einen eigenen Satz von Befehlsdateien, die lokal auf einem mobilen Gerät gespeichert werden. Apple Intelligence zum Beispiel benötigt für all seine Spielereien 7 GB Speicherplatz .

Um eine Aufgabe auszuführen, können Sie nicht das gesamte KI-Paket dem RAM zuordnen, da dieser Platz für die Erledigung anderer wichtiger Aufgaben wie Anrufe oder Interaktion mit anderen wichtigen Apps benötigen würde. Um die Einschränkungen des Micron-Speichermoduls zu bewältigen, wird eine Speicherzuordnung erstellt, die nur die benötigten AI-Gewichte aus dem Speicher in den RAM lädt.

Wenn die Ressourcen knapp werden, benötigen Sie einen schnelleren Datenaustausch und ein schnelleres Lesen. Dadurch wird sichergestellt, dass Ihre KI-Aufgaben ausgeführt werden, ohne die Geschwindigkeit anderer wichtiger Aufgaben zu beeinträchtigen. Dank Pinned WriteBooster wird dieser Datenaustausch um 30 % beschleunigt, sodass die KI-Aufgaben ohne Verzögerungen erledigt werden können.

Nehmen wir also an, Sie benötigen Gemini, um eine PDF-Datei zur Analyse abzurufen . Der schnelle Speicheraustausch sorgt dafür, dass die benötigten KI-Gewichte schnell vom Speicher auf das RAM-Modul verlagert werden.

Als nächstes führen wir die Datendefragmentierung durch. Stellen Sie es sich wie einen Schreibtisch- oder Almirah-Organizer vor, der dafür sorgt, dass Objekte übersichtlich in verschiedenen Kategorien gruppiert und in ihren einzigartigen Schränken platziert werden, sodass sie leicht zu finden sind.

Da im Zusammenhang mit Smartphones über einen längeren Nutzungszeitraum mehr Daten gespeichert werden, erfolgt die Speicherung aller Daten in der Regel eher zufällig. Die Nettoauswirkung besteht darin, dass es schwieriger wird, alle Dateien zu finden, wenn das Bordsystem Zugriff auf eine bestimmte Art von Dateien benötigt, was zu einem langsameren Betrieb führt.

Laut Rivera hilft Data Defrag nicht nur bei der geordneten Speicherung von Daten, sondern verändert auch die Art der Interaktion zwischen Speicher und Gerätecontroller. Dadurch wird die Lesegeschwindigkeit von Daten um beeindruckende 60 % erhöht , was natürlich alle Arten von Benutzer-Maschine-Interaktionen, einschließlich KI-Workflows, beschleunigt.

„Diese Funktion kann dazu beitragen, KI-Funktionen zu beschleunigen, beispielsweise wenn ein generatives KI-Modell, wie es zum Generieren eines Bilds aus einer Textaufforderung verwendet wird, von Speicher zu Speicher aufgerufen wird, wodurch Daten schneller vom Speicher in den Speicher gelesen werden können“, sagte der Micron-Manager gegenüber Digital Trends.

Intelligence Latency Tracker ist eine weitere Funktion, die im Wesentlichen Verzögerungsereignisse und Faktoren im Auge behält, die die normale Geschwindigkeit Ihres Telefons verlangsamen könnten. Anschließend hilft es beim Debuggen und Optimieren der Leistung des Telefons, um sicherzustellen, dass es bei regulären und KI-Aufgaben nicht zu Geschwindigkeitseinbußen kommt.

Die letzte Speichererweiterung ist Zoned UFS. Dieses System stellt sicher, dass Daten mit ähnlicher E/A-Art ordnungsgemäß gespeichert werden. Dies ist von entscheidender Bedeutung, da es dem System erleichtert, die erforderlichen Dateien zu finden, anstatt Zeit mit dem Durchsuchen aller Ordner und Verzeichnisse zu verschwenden.

„Die ZUFS-Funktion von Micron hilft dabei, Daten zu organisieren, sodass der Prozess schneller und reibungsloser abläuft, wenn das System bestimmte Daten für eine Aufgabe finden muss“, sagte uns Rivera.

Überschreitet die RAM-Kapazität

Wenn es um KI-Workflows geht, benötigen Sie eine gewisse Menge RAM. Je mehr, desto besser. Während Apple die Basis für seinen Apple Intelligence-Stack auf 8 GB festgelegt hat, sind Spieler im Android-Ökosystem auf 12 GB als sicheren Standard umgestiegen. Warum so?

„KI-Erlebnisse sind außerdem extrem datenintensiv und daher energiehungrig. Um das Versprechen der KI zu erfüllen, müssen Speicher und Datenspeicher daher niedrige Latenzzeiten und hohe Leistung bei höchster Energieeffizienz bieten“, erklärt Rivera.

Mit seiner 1γ (1-Gamma) LPDDR5X RAM-Lösung der nächsten Generation für Smartphones ist es Micron gelungen, die Betriebsspannung der Speichermodule zu reduzieren. Dann ist da noch die allzu wichtige Frage der lokalen Leistung. Rivera sagt, dass die neuen Speichermodule mit bis zu 9,6 Gigabit pro Sekunde brummen können, was eine erstklassige KI-Leistung gewährleistet.

Laut Micron haben Verbesserungen im Extrem-Ultraviolett-Lithographieverfahren (EUV) nicht nur die Türen für höhere Geschwindigkeiten, sondern auch für einen deutlichen Anstieg der Energieeffizienz um 20 % geöffnet.

Der Weg zu mehr privaten KI-Erlebnissen?

Die RAM- und Speicherlösungen der nächsten Generation von Microns für Smartphones zielen nicht nur auf die Verbesserung der KI-Leistung, sondern auch auf die allgemeine Geschwindigkeit Ihrer täglichen Smartphone-Aufgaben ab. Ich war neugierig, ob der G9 NAND Mobile UFS 4.1-Speicher und die 1γ (1-Gamma) LPDDR5X RAM-Erweiterungen auch die Offline-KI-Prozessoren beschleunigen würden.

Sowohl Smartphone-Hersteller als auch KI-Labore setzen zunehmend auf lokale KI-Verarbeitung . Das heißt, anstatt Ihre Abfragen an einen Cloud-Server zu senden, wo der Vorgang abgewickelt wird, und das Ergebnis dann über eine Internetverbindung an Ihr Telefon zu senden, wird der gesamte Workflow lokal auf Ihrem Telefon ausgeführt.

Von der Transkription von Anrufen und Sprachnotizen bis hin zur Verarbeitung Ihres komplexen Recherchematerials in PDF-Dateien geschieht alles auf Ihrem Telefon und keine persönlichen Daten verlassen jemals Ihr Gerät. Es ist ein sichererer Ansatz, der auch schneller ist, erfordert aber gleichzeitig große Systemressourcen. Ein schnelleres und effizienteres Speichermodul ist eine dieser Voraussetzungen.

Können die Lösungen der nächsten Generation von Micron bei der lokalen KI-Verarbeitung helfen? Es kann. Tatsächlich werden dadurch auch Prozesse beschleunigt, die eine Cloud-Verbindung erfordern, wie beispielsweise die Erstellung von Videos mit dem Veo-Modell von Google , für die weiterhin leistungsstarke Rechenserver erforderlich sind.

„Eine native KI-App, die direkt auf dem Gerät ausgeführt wird, hätte den meisten Datenverkehr, da sie nicht nur Benutzerdaten vom Speichergerät liest, sondern auch KI-Rückschlüsse auf dem Gerät durchführt. In diesem Fall würden unsere Funktionen dazu beitragen, den Datenfluss für beide zu optimieren“, erzählt mir Rivera.

Wie schnell können Sie also damit rechnen, dass mit den neuesten Micron-Lösungen ausgestattete Telefone in den Regalen landen? Laut Rivera werden alle großen Smartphone-Hersteller die RAM- und Speichermodule der nächsten Generation von Micron übernehmen. Was die Markteinführung betrifft, sollten „Flaggschiffmodelle, die Ende 2025 oder Anfang 2026 auf den Markt kommen“ auf Ihrem Einkaufsradar sein.