Zwischen dem US-Unternehmen OpenAI und dem chinesischen Anbieter DeepSeek ist ein neuer Streit um künstliche Intelligenz entbrannt. Laut einem Bericht von Bloomberg behauptet OpenAI, dass DeepSeek beim Training seines R1-Modells die Methode der „Destillation“ genutzt und dabei Antworten leistungsstarker Modelle als Grundlage verwendet habe. Ein entsprechender Bericht wurde US-Gesetzgebern vorgelegt.
Spannungen im KI-Wettlauf
Die Destillationsmethode ist eine Technik, bei der ein schwächeres Modell mit den Ausgaben eines leistungsstärkeren Modells trainiert wird. Während dieses Verfahren die Trainingszeit verkürzt und Kosten senkt, wirft es erhebliche rechtliche und ethische Fragen auf. Im Zentrum der Debatte steht, ob das Training eines neuen Modells auf Basis der Antworten eines anderen rechtmäßig ist oder als technologische Kopie eingestuft werden muss.
OpenAI behauptet zudem, DeepSeek habe Proxy-Netzwerke genutzt, um Zugriffsbeschränkungen auf US-basierte KI-Dienste zu umgehen. Laut dem Unternehmen nehmen solche Methoden unter ausländischen Entwicklern zu. Die Diskussion unterstreicht, dass sich der globale KI-Wettbewerb zunehmend auf eine harte und politische Ebene verlagert.





