Microsoft hat sein rechtliches Fadenkreuz bereits auf DeepSeek gerichtet
Microsoft, einer der Hauptinvestoren von OpenAI, untersucht nun, ob das chinesische Unternehmen DeepSeek schändliche Methoden verwendet hat, um seine Argumentationsmodelle zu trainieren. Laut Bloomberg Law geht das Unternehmen nun davon aus, dass DeepSeek gegen seine Nutzungsbedingungen verstoßen hat, indem es seine Anwendungsprogrammierschnittstelle (API) zum Trainieren seines kürzlich angekündigten R1-Modells verwendet hat.
Die Nachricht kommt nicht lange, nachdem der KI- und Krypto-Zar des Weißen Hauses, David Sacks, Fox News am Dienstag in einem Interview sagte, es sei „möglich“, dass DeepSeek „geistiges Eigentum aus den Vereinigten Staaten gestohlen“ habe.
„Es gibt substanzielle Beweise dafür, dass DeepSeek hier das Wissen aus den OpenAI-Modellen destilliert hat“, sagte Sacks der Verkaufsstelle.
Die KI-Branche schwärmt von der Fähigkeit von DeepSeek, KI-Modelle in einem Jahr mit nur 5,6 Millionen US-Dollar schnell und kostengünstig zu trainieren. Es besteht die Möglichkeit, dass der Grund für die Effizienz des Unternehmens darin liegt, dass es das Modell eines anderen Unternehmens als Grundlage verwendet hat.
DeepSeek hat möglicherweise einen Prozess namens Destillation verwendet, bei dem zwei Modelle eine Lehrer-Schüler-Dynamik aufweisen, sodass eines Informationen vom anderen sammeln kann. Dies könnte einerseits die günstigen Betriebskosten des Unternehmens und den Einsatz leistungsschwächerer Nvidia-H800-Chips erklären. DeepSeek muss nun möglicherweise nachweisen, ob bei der Entwicklung seiner Modelle alle rechtswidrigen Maßnahmen ergriffen wurden.
Vor dieser jüngsten Entwicklung spekulierten Branchenexperten, dass DeepSeek wahrscheinlich Reverse Engineering nutzte, um seine Modelle zu trainieren. Dieser Prozess analysiert Modelle, um ihre Muster und Tendenzen zur Verbesserung zukünftiger Modelle zu identifizieren. Reverse Engineering ist eine gängige Praxis unter Open-Source-Entwicklern, die als legal gilt.
Von Microsoft sanktionierte Sicherheitsforscher haben bereits herausgefunden, dass DeepSeek im Herbst 2024 möglicherweise eine beträchtliche Menge Code aus der API von OpenAI exhumiert hat. Microsoft soll OpenAI zu diesem Zeitpunkt auf den Verstoß aufmerksam gemacht haben. Das R1-Modell wurde letzte Woche angekündigt und lenkte die Aufmerksamkeit auf das chinesische KI-Unternehmen und verbundene Parteien.
DeepSeek wurde auch als Open-Source-KI-Anwendung gelobt, auf der jeder entwickeln kann. Hierher kommt die Begeisterung für die Plattform – zusätzlich zu ihrem Vergleich mit Top-Tools wie ChatGPT und Google Gemini. OpenAI ist kein Open-Source-Dienst; Allerdings kann sich jeder anmelden, um auf die API zuzugreifen. TechCrunch stellte fest, dass das Unternehmen in seinen Servicebedingungen klarstellt, dass andere Unternehmen die Ergebnisse nicht zum Trainieren anderer KI-Modelle verwenden können.
Ein OpenAI-Sprecher erklärte gegenüber Reuters , dass der Versuch verschiedener internationaler Unternehmen, Modelle bekannter Unternehmen in den USA zu kopieren, mittlerweile an der Tagesordnung sei, ungeachtet der Vorschriften.
„Wir ergreifen Gegenmaßnahmen, um unser geistiges Eigentum zu schützen, einschließlich eines sorgfältigen Prozesses, der festlegt, welche Grenzfunktionen in veröffentlichte Modelle einbezogen werden sollen, und glauben, dass es für die Zukunft von entscheidender Bedeutung ist, dass wir eng mit der US-Regierung zusammenarbeiten, um das bestmöglich zu schützen.“ „Wir werden die leistungsfähigsten Modelle aus den Bemühungen von Gegnern und Konkurrenten, US-Technologie zu übernehmen, ableiten“, sagte der Sprecher.