Von Open AI bis hin zu gehackten Datenbrillen – hier sind die 5 größten KI-Schlagzeilen dieser Woche
Wir sind diese Woche offiziell in die Spooky Season übergegangen und haben zwischen der 6,6-Millionen-Dollar-Finanzierungsrunde von OpenAI, Nvidias Überraschungs-LLM und einigen in die Privatsphäre eingreifenden Meta-Smart-Brillen eine erschreckende Anzahl von Entwicklungen im KI-Bereich gesehen. Hier sind fünf der größten Ankündigungen.
OpenAI sichert sich in der neuesten Finanzierungsrunde 6,6 Milliarden US-Dollar
Die bezaubernde Existenz von Sam Altman geht weiter, als diese Woche bekannt wurde, dass OpenAI sich im Rahmen seiner jüngsten Finanzierungsrunde eine zusätzliche Investition in Höhe von 6,6 Milliarden US-Dollar gesichert hat. Zu den bestehenden Investoren wie Microsoft und Khosla Ventures gesellten sich die Newcomer SoftBank und Nvidia. Das KI-Unternehmen hat mittlerweile einen Wert von satten 157 Milliarden US-Dollar und ist damit eines der reichsten Privatunternehmen der Welt. Und sollte der von OpenAI vorgeschlagene gewinnorientierte Umstrukturierungsplan umgesetzt werden, würde diese Bewertung Altman mehr als 150 Milliarden US-Dollar an Eigenkapital einbringen und ihn auf die Liste der zehn reichsten Menschen der Welt katapultieren. Nach den Finanzierungsnachrichten führte OpenAI Canvas ein, seine Version der kollaborativen Funktion Artifacts von Anthropic
Nvidia hat gerade ein Open-Source-LLM veröffentlicht, das mit GPT-4 konkurrieren kann
Mit der Veröffentlichung von LVNM 1.0 in dieser Woche wagt Nvidia den Sprung von der KI-Hardware zur KI-Software, einem echten Open-Source-Sprachmodell, das sich bei einer Vielzahl von Bild- und Sprachaufgaben auszeichnet. Das Unternehmen behauptet, dass die neue Modellfamilie, angeführt vom LVNM-D-72B mit 72 Milliarden Parametern, mit GPT-4o konkurrieren kann. Allerdings positioniert Nvidia LVNM nicht als direkten Konkurrenten zu anderen LLMs der Spitzenklasse, sondern als Plattform, auf der andere Entwickler ihre eigenen Chatbots und Anwendungen erstellen können.
Googles Gemini Live spricht mittlerweile fast vier Dutzend Sprachen
Die Möglichkeit, direkt mit Ihrem Chatbot sprechen zu können, scheint die neue Must-Have-Funktion zu sein. Google gab diese Woche bekannt, dass esGemini Live erweitert, um neben Englisch auch in fast vier Dutzend Sprachen zu kommunizieren , beginnend mit Französisch, Deutsch, Portugiesisch, Hindi und Spanisch. Microsoft hat auch eine ähnliche Funktion für Copilot mit dem Namen Copilot Voice vorgestellt, die nach Angaben des Unternehmens „die intuitivste und natürlichste Art ist, unterwegs ein Brainstorming durchzuführen“. Sie schließen sich dem Advanced Voice Mode von ChatGPT und den Natural Voice Interactions von Meta an und ermöglichen es Benutzern, mit ihren Telefonen zu sprechen, nicht nur mit ihnen.
Der Gouverneur von Kalifornien legt sein Veto gegen ein umfangreiches Gesetz zur KI-Sicherheit ein
Der ganze Streit um SB 1047, den kalifornischen Safe and Secure Innovation for Frontier Artificial Models Act, war umsonst, da Gouverneur Gavin Newsom diese Woche sein Veto gegen das KI-Sicherheitsgesetz einlegte . In einem Brief an die Gesetzgeber argumentierte er, dass sich der Gesetzentwurf kurzsichtig auf die größten Sprachmodelle konzentriere und dass „kleinere, spezialisierte Modelle sich als genauso oder sogar gefährlicher erweisen könnten als die Modelle, auf die SB 1047 abzielt.“
Hacker verwandeln Meta-Datenbrillen in automatische Doxing-Maschinen
Einem Paar Informatikstudenten aus der Harvard-Universität ist es gelungen, eine kommerziell erhältliche Meta-Smart-Brille so zu modifizieren, dass sie jede Person identifizieren und nachschlagen können, die in ihr Sichtfeld kommt, berichtete 404 Media diese Woche . Die Brille, Teil des I-XRAY-Experiments, wurde entwickelt, um Bilder von Fremden auf der Straße aufzunehmen, diese Bilder durch die Bilderkennungssoftware PimEyes laufen zu lassen, um das Subjekt zu identifizieren, und diese Basisinformationen dann zu verwenden, um nach ihren persönlichen Daten (d. h. ihrem Namen) zu suchen Telefonnummer und Privatadresse) auf kommerziellen Datenvermittlungsseiten.
„Um es zu benutzen, setzt man einfach die Brille auf, und wenn man dann an Menschen vorbeigeht, erkennt die Brille, wenn sich das Gesicht einer Person im Bild befindet“, erklärten die beiden in einer Videodemo, die auf X gepostet wurde . „Nach ein paar Sekunden werden ihre persönlichen Daten auf Ihrem Telefon angezeigt.“ Die Auswirkungen auf die Privatsphäre eines solchen Systems sind erschreckend. Das Duo hat nicht die Absicht, den Quellcode öffentlich zu veröffentlichen, aber nachdem sie nun gezeigt haben, dass dies möglich ist, gibt es wenig, was andere daran hindern könnte, ihn zurückzuentwickeln.