TechSpielWelt

OpenAI wirft DeepSeek „Destillation“ vor: KI-Wettbewerb verschärft sich

OpenAI behauptet, dass DeepSeek das R1-Modell durch „Destillation“ von KI-Outputs trainiert hat. Die ethische und rechtliche Debatte in der KI-Welt spitzt sich zu.


15.02.2026 14:18|0|40|Google News
OpenAI wirft DeepSeek „Destillation“ vor: KI-Wettbewerb verschärft sich

Zwischen dem US-Unternehmen OpenAI und dem chinesischen Anbieter DeepSeek ist ein neuer Streit um künstliche Intelligenz entbrannt. Laut einem Bericht von Bloomberg behauptet OpenAI, dass DeepSeek beim Training seines R1-Modells die Methode der „Destillation“ genutzt und dabei Antworten leistungsstarker Modelle als Grundlage verwendet habe. Ein entsprechender Bericht wurde US-Gesetzgebern vorgelegt.

OpenAI wirft DeepSeek „Destillation“ vor: KI-Wettbewerb verschärft sich

Spannungen im KI-Wettlauf

Die Destillationsmethode ist eine Technik, bei der ein schwächeres Modell mit den Ausgaben eines leistungsstärkeren Modells trainiert wird. Während dieses Verfahren die Trainingszeit verkürzt und Kosten senkt, wirft es erhebliche rechtliche und ethische Fragen auf. Im Zentrum der Debatte steht, ob das Training eines neuen Modells auf Basis der Antworten eines anderen rechtmäßig ist oder als technologische Kopie eingestuft werden muss.

OpenAI wirft DeepSeek „Destillation“ vor: KI-Wettbewerb verschärft sich

OpenAI behauptet zudem, DeepSeek habe Proxy-Netzwerke genutzt, um Zugriffsbeschränkungen auf US-basierte KI-Dienste zu umgehen. Laut dem Unternehmen nehmen solche Methoden unter ausländischen Entwicklern zu. Die Diskussion unterstreicht, dass sich der globale KI-Wettbewerb zunehmend auf eine harte und politische Ebene verlagert.

Teilen:
Künstliche IntelligenzOpenAIDeepSeekDeep LearningTechnologiewettbewerb

Das könnte Sie auch interessieren

Kommentare (0)

Kommentare werden geladen...

Einen Kommentar hinterlassen

Kategorien

Yükleniyor...

Folge uns

👍