KI-Entwicklung: OpenAI wirft DeepSeek Datendiebstahl vor
Als teilweise quelloffene KI mit deutlich günstigeren Entwicklungs- und Nutzungskosten wirbelt DeepSeek gerade die US-amerikanische Tech-Branche durcheinander. Das jüngst
vorgestellte Modell „DeepSeek V3“ geht mit deutlich niedrigeren Entwicklungs- und Betriebskosten als die Konkurrenz aus westlichen Ländern an den Start. Diese stellt nun kritische Fragen, wie DeepSeek zu diesen Resultaten gelangen konnte. Der
Vorwurf: DeepSeek wurde mit Antworten aus Konkurrenz-Modellen gefüttert und baut somit auf deren Entwicklung auf.
Es gebe Hinweise darauf, dass DeepSeek eine Technik namens „Destillation“ verwendet habe, behauptet OpenAI. Dabei werden die Antworten eines großen, komplexen Sprachmodells verwendet, um ein kleineres, ressourcensparendes Sprachmodell zu erzeugen. Dabei habe DeepSeek allerdings nicht eigene LLMs als Basis verwendet, sondern ChatGPT-Antworten destilliert, so der Vorwurf. Dies sei eine in den Nutzungsbedingungen von OpenAI explizit untersagte Nutzung. David Sacks, Beauftragter für KI-Fragen der US-Regierung, sprang dem Unternehmen bei und wiederholte den Vorwurf: Es gebe „Beweise dafür, dass DeepSeek das Wissen aus OpenAI-Modellen destilliert hat, und ich glaube nicht, dass OpenAI sehr glücklich darüber ist.“
Verwendung von Quellmaterial umstrittenDas News-Portal 404Media sieht eine gewisse
Ironie in der Beschwerde von OpenAI, dass ihr Material als Basis für LLM-Training verwendet werde, während der Konzern selbst wegen unerlaubter Verwendung urheberrechtlich geschützten Materials
vor Gericht steht: Die New York Times sieht die Verwendung ihrer Artikel als Material für KI-Training nicht vom Fair-Use-Prinzip gedeckt. DeepSeek selbst antwortete bisher nicht auf Vorwürfe, was dem aktuellen chinesischen Neujahrsfest zugeschrieben wird. In einer wissenschaftlichen Veröffentlichung heben die DeepSeek-Forscher allerdings ihren
neuartigen Ansatz hervor: Mit der ihrer „Reinforcement Learning“ genannten Strategie sei ein deutlich effizienteres Training großer Sprachmodelle möglich.