Apple gibt täglich Millionen von Dollar aus, nur um Siri „intelligenter“ zu machen
Wenn Sie ein Mainstream-Erzählwort für ein aktuelles Technologieunternehmen auswählen möchten, muss es „künstliche Intelligenz“ sein, selbst der Hardware-Riese Apple macht da keine Ausnahme.
Laut mit der Angelegenheit vertrauten Personen hat Apple sein Budget für die Forschung im Bereich der künstlichen Intelligenz auf Millionen von Dollar pro Tag erhöht (ein kleines Ziel für eine Woche). Im Gegensatz dazu sagte Sam Altman (Sam Altman), CEO von Open AI, dass Open AI in wenigen Monaten mehr als 100 Millionen US-Dollar ausgegeben habe, um Chat GPT 4.0 zu trainieren.
Eines der Ziele der KI-Forschung von Apple ist die Verbesserung der Fähigkeiten von Siri. Ermöglichen Sie iPhone-Benutzern, Siri durch einen einfachen Satz zu befehlen, komplexe Aufgaben mit mehreren Vorgängen zu erledigen.
So können iPhone-Nutzer künftig beispielsweise Siri bitten, die 5 aktuellen Fotos zu einem Bewegtbild zusammenzufügen und dieses mit nur einem Satz an das vorgesehene Objekt zu senden. Obwohl iPhone-Benutzer derzeit diese Reihe von Vorgängen manuell in der „Shortcut-Befehl“-Software programmieren können, weist die Software immer einen bestimmten Schwellenwert auf.
Apple ist sich nicht erst seit Kurzem der Bedeutung der generativen KI für die Technologieentwicklung bewusst. Tatsächlich ermächtigte Apple den Direktor für künstliche Intelligenz John Giannandrea (John Giannandrea), bereits 2019 ein Team für generative KI zu bilden Industrie. Nachdem Chat GPT eingeführt wurde und auf der ganzen Welt populär wurde, erkannten die Leute die Weitsicht von Apple.
Giannandrea verbrachte acht Jahre bei Google, wo sie die Teams für maschinelle Intelligenz, Forschung und Suche leitete. Apple holte ihn 2018 ins Boot und hoffte, dass Giannandrea dazu beitragen würde, das Siri-Erlebnis zu verbessern. Und das tat er, Giannandrea hat nicht nur maschinelles Lernen in Siri integriert, sondern Apple auch dabei geholfen, Talente von Google abzuwerben.
Pang Ruoming ist eines der Talente, die Giannandrea abgeworben hat. Er arbeitet seit 15 Jahren bei Google, einschließlich des Teams, das Giannandrea einst leitete (der Chef ist überall der Chef). Laut Leuten, die Pang Ruoming kennen, hat Pang Ruoming große Erfolge im Bereich neuronaler Netze erzielt und viele Anhänger. Diese Erfolge machen ihn zu einem der aktuellen Leiter des generativen KI-Teams von Apple.
Das Ziel des generativen KI-Teams von Apple besteht in dieser Phase darin, ein Grundlagenmodell (Foundation Model) zu erstellen, das den Zielen der Teams für künstliche Intelligenz anderer Technologieunternehmen ähnelt. Forscher müssen ein Grundlagenmodell erstellen und es in die Software des Unternehmens integrieren , um die Softwarefähigkeit zu verbessern. Erwähnenswert ist, dass sich Apples Team für generative KI zwar keine Sorgen um die Finanzierung macht, derzeit aber nur 16 Mitglieder hat.
Dennoch gibt es bei Apple mindestens zwei KI-bezogene Forschungsteams. Eine davon ist die Gruppe Visual Intelligence (Visual Intelligence), die an der Entwicklung von Software arbeitet, die „Bilder, Videos oder 3D-Szenen generieren“ kann.
Das andere Team ist hauptsächlich für die langfristige Erforschung multimodaler künstlicher Intelligenz (Multimodal AI) verantwortlich, die Bilder, Videos oder Texte erkennen und generieren kann. Seit Mai dieses Jahres rekrutiert Apple weitere Ingenieure für sein generatives KI-Team. Obwohl Apple noch keine direkt an den Verbraucher gerichteten Forschungsergebnisse vorliegen hat, sagte Apple-CEO Tim Cook, dass generative KI „sehr interessant“ sei.
Derzeit ist das bekannte Forschungsergebnis des generativen KI-Teams von Apple Ajax GPT. Insidern zufolge hat die Fähigkeit dieses großen Sprachmodells (LLM) Chat GPT 3.5 von Open AI übertroffen (obwohl letzteres eine Reihe leistungsfähigerer KI auf den Markt gebracht hat). .
Pang Ruoming spielte dabei eine wichtige Rolle. Die von ihm geleitete Abteilung hat eine interne Software „AXLearn“ entwickelt, die sich dem Training von Ajax GPT widmet. Bei dieser Software handelt es sich um ein KI-Trainingsframework, mit dem KI-Modelle schnell trainiert werden können. Derzeit hat AJAX GPT 2000 akzeptiert Training mit Milliarden von Parametern.
AXLearn ist ein Fork von Googles KI-Lernframework „JAX“. Wenn Ajax GPT mit einem Haus verglichen wird, dann ist AXlearn dessen Bauplan und JAX der Stift und das Papier zum Zeichnen des Bauplans.
Im Gegensatz zu anderen Unternehmen, die Cloud-Computing-Technologie nutzen, scheint Apple zu wollen, dass Ajax GPT auf dem Terminal läuft. Mit anderen Worten: Apple möchte, dass generative KI ausschließlich Chips in iPhones, iPads oder Macs zur Datenverarbeitung nutzt, denn nur so kann die Privatsphäre der Nutzer besser geschützt werden.
Allerdings wurde Ajax GPT, wie bereits erwähnt, mit mehr als 200 Milliarden Parametern trainiert. Die Parameter spiegeln die Größe und Komplexität des KI-Modells wider. Je größer die Zahl, desto komplexer das Modell, was mehr Speicherplatz und Rechenleistung erfordert . Ein großes Sprachmodell mit mehr als 200 Milliarden Parametern. Zum Vergleich: Das große KI-Modell, das Xiaomi erfolgreich lokal auf dem Mobiltelefon ausgeführt hat, verfügt über 1,3 Milliarden Parameter. Für Apple ist dies möglicherweise das am schwierigsten zu überwindende Level.
#Willkommen beim offiziellen öffentlichen WeChat-Konto von Aifaner: Aifaner (WeChat-ID: ifanr). Weitere spannende Inhalte werden Ihnen so schnell wie möglich präsentiert.
Ai Faner | Ursprünglicher Link · Kommentare anzeigen · Sina Weibo