Die neuen Gemma 3 AI-Modelle von Google sind schnell, sparsam und bereit für Telefone
Die KI-Bemühungen von Google sind ein Synonym für Gemini, das inzwischen auch zu einem integralen Bestandteil seiner beliebtesten Produkte in der gesamten Worksuite-Software und -Hardware geworden ist. Allerdings veröffentlicht das Unternehmen seit über einem Jahr auch mehrere Open-Source-KI-Modelle unter dem Label Gemma.
Heute hat Google seine Open-Source-KI-Modelle der dritten Generation mit einigen beeindruckenden Behauptungen vorgestellt . Die Gemma 3-Modelle gibt es in vier Varianten – 1 Milliarde, 4 Milliarden, 12 Milliarden und 27 Milliarden Parameter – und sind für den Betrieb auf Geräten von Smartphones bis hin zu leistungsstarken Workstations konzipiert.
Bereit für mobile Geräte

Laut Google ist Gemma 3 das weltweit beste Einzelbeschleunigermodell, was bedeutet, dass es auf einer einzelnen GPU oder TPU ausgeführt werden kann, anstatt einen ganzen Cluster zu benötigen. Theoretisch bedeutet das, dass ein Gemma 3 AI-Modell nativ auf der Tensor Processing Core (TPU)-Einheit des Pixel-Smartphones ausgeführt werden kann, genau wie das Gemini Nano-Modell lokal auf Telefonen ausgeführt wird.
Der größte Vorteil von Gemma 3 gegenüber der Gemini-Familie von KI-Modellen besteht darin, dass Entwickler es als Open-Source-Lösung gemäß ihren individuellen Anforderungen in mobilen Apps und Desktop-Software verpacken und versenden können. Ein weiterer entscheidender Vorteil besteht darin, dass Gemma über 140 Sprachen unterstützt, von denen 35 Teil eines vorab trainierten Pakets sind.
Und genau wie die neuesten Modelle der Gemini 2.0-Serie ist auch Gemma 3 in der Lage, Texte, Bilder und Videos zu verstehen. Kurz gesagt, es ist multi-multimdal. Was die Leistung betrifft, soll Gemma 3 andere beliebte Open-Source-KI-Modelle wie DeepSeek V3 , das Reasoning-fähige OpenAI o3-mini und Metas Llama-405B-Variante übertreffen.
Vielseitig und sofort einsatzbereit
Gemma 3 bietet bei etwa einer Eingabespanne ein Kontextfenster im Wert von 128.000 Token. Das reicht aus, um ein komplettes 200-seitiges Buch abzudecken, das als Input bereitgestellt wird. Zum Vergleich: Das Kontextfenster für Googles Gemini 2.0 Flash Lite-Modell liegt bei einer Million Token. Im Kontext von KI-Modellen entspricht ein durchschnittliches englischsprachiges Wort ungefähr 1,3 Token.

Gemma 3 unterstützt auch Funktionsaufrufe und strukturierte Ausgaben, was im Wesentlichen bedeutet, dass es mit externen Datensätzen interagieren und Aufgaben wie ein automatisierter Agent ausführen kann. Die nächste Analogie wäre Gemini und wie es nahtlos auf verschiedenen Plattformen wie Gmail oder Docs arbeiten kann.
Die neuesten Open-Source-KI-Modelle von Google können entweder lokal oder über die cloudbasierten Plattformen des Unternehmens wie die Vertex AI Suite bereitgestellt werden. Gemma 3-KI-Modelle sind jetzt über Google AI Studio sowie über Drittanbieter-Repositories wie Hugging Face, Ollama und Kaggle verfügbar.

Gemma 3 ist Teil eines Branchentrends, bei dem Unternehmen an großen Sprachmodellen (im Fall von Google Gemini) arbeiten und gleichzeitig auch kleine Sprachmodelle (SLMs) auf den Markt bringen. Eine ähnliche Strategie verfolgt auch Microsoft mit seiner Open-Source-Phi-Reihe kleiner Sprachmodelle.
Kleine Sprachmodelle wie Gemma und Phi sind äußerst ressourceneffizient, was sie zu einer idealen Wahl für die Ausführung auf Geräten wie Smartphones macht. Da sie zudem eine geringere Latenz bieten, eignen sie sich besonders gut für mobile Anwendungen.