Google könnte endlich eine Antwort auf Chat GPT-4 haben
Google hat die Einführung seines umfangreichsten Modells für künstliche Intelligenz, Gemini , angekündigt und es verfügt über drei Versionen: Gemini Ultra, das größte und leistungsfähigste; Gemini Pro, das für verschiedene Aufgaben vielseitig einsetzbar ist; und Gemini Nano, entwickelt für bestimmte Aufgaben und mobile Geräte. Der Plan besteht darin, Gemini über Google Cloud an Kunden zur Verwendung in ihren Anwendungen zu lizenzieren, in einer Herausforderung für ChatGPT von OpenAI.
Gemini Ultra zeichnet sich durch ein umfassendes Multitasking-Sprachverständnis aus und übertrifft menschliche Experten in Fächern wie Mathematik, Physik, Geschichte, Recht, Medizin und Ethik. Es wird erwartet, dass es Google-Produkte wie den Bard- Chatbot und Search Generative Experience unterstützt. Google möchte KI monetarisieren und plant, Gemini Pro über seine Cloud-Dienste anzubieten.
„Gemini ist das Ergebnis groß angelegter Kooperationsbemühungen von Teams bei Google, einschließlich unserer Kollegen bei Google Research“, schrieb CEO Sundar Pichai am Mittwoch in einem Blogbeitrag . „Es wurde von Grund auf multimodal konzipiert, was bedeutet, dass es verschiedene Arten von Informationen, einschließlich Text, Code, Audio, Bild und Video, verallgemeinern und nahtlos verstehen, verarbeiten und kombinieren kann.“
Ab dem 13. Dezember können Entwickler und Unternehmen über die Gemini API in Google AI Studio oder Google Cloud Vertex AI auf Gemini Pro zugreifen, während Android-Entwickler mit Gemini Nano bauen können. Gemini wird den Bard-Chatbot von Google verbessern und Gemini Pro für fortgeschrittenes Denken, Planen und Verstehen verwenden. Ein kommender Bard Advanced mit Gemini Ultra soll nächstes Jahr auf den Markt kommen und wahrscheinlich in der Lage sein, GPT-4 herauszufordern.
Trotz Fragen zur Monetarisierung mit Bard legt Google Wert auf die Schaffung einer guten Benutzererfahrung und macht keine spezifischen Details zu Preisen oder Zugang zu Bard Advanced. Das Gemini-Modell, insbesondere Gemini Ultra, wurde laut Google umfangreichen Tests und Sicherheitsbewertungen unterzogen. Obwohl es das größte Modell ist, soll es kostengünstiger und effizienter sein als seine Vorgänger.
Google stellte außerdem seine Tensor-Verarbeitungseinheit der nächsten Generation, TPU v5p , für das Training von KI-Modellen vor. Der Chip verspricht im Vergleich zu TPU v4 eine verbesserte Leistung für den Preis. Diese Ankündigung folgt auf die jüngsten Entwicklungen der Cloud-Konkurrenten Amazon und Microsoft im Bereich kundenspezifischer Chips.
Der Start von Gemini nach einer gemeldeten Verzögerung unterstreicht Googles Engagement für die Weiterentwicklung der KI-Funktionen. Das Unternehmen steht auf dem Prüfstand, wie es KI in profitable Unternehmungen umwandeln will, und die Einführung von Gemini steht im Einklang mit seiner Strategie, KI-Dienste über Google Cloud anzubieten. Die technischen Details von Gemini werden in einem kommenden Whitepaper näher erläutert und geben Einblicke in seine Fähigkeiten und Innovationen.