Google gab bekannt, dass in jüngster Zeit intensive Aktivitäten unternommen wurden, um den KI-Chatbot Gemini zu kopieren. Laut einem Bericht der Google Threat Intelligence Group sendeten Angreifer in einer einzigen Kampagne mehr als 100.000 Prompts, um die logischen Schlussfolgerungsprozesse von Gemini zu kapern.
Distillations-Angriffe zielen auf den Denkprozess von Gemini ab
Google bezeichnet solche Versuche als „Distillations-Angriffe“. Diese Angriffe zielen darauf ab, die interne Funktionsweise des Chatbots durch aufeinanderfolgende Fragen offenzulegen. Google definiert dies als „Modell-Inferenz“; Nachahmer versuchen dabei, die Logik und Muster hinter dem System zu entschlüsseln, um diese Informationen für die Entwicklung eigener KI-Systeme zu nutzen.
Das Unternehmen geht davon aus, dass hinter diesen Versuchen zumeist private Firmen oder Forscher stehen, die sich einen Wettbewerbsvorteil verschaffen wollen. Ein Google-Sprecher erklärte, man vermute, dass die Angriffe aus verschiedenen Regionen der Welt stammen, werde jedoch keine weiteren Details zu den Verdächtigen bekannt geben.
OpenAI warf DeepSeek dieselbe Angriffsmethode vor
Google betrachtet die Distillations-Methode als Diebstahl geistigen Eigentums. Technologieunternehmen investieren Milliarden von Dollar in die Entwicklung großer Sprachmodelle (LLMs) und betrachten deren interne Struktur als äußerst wertvolle Geschäftsgeheimnisse. Obwohl große LLMs über Mechanismen verfügen, um solche Angriffe zu erkennen und zu verhindern, sind sie aufgrund ihrer öffentlichen Verfügbarkeit im Internet von Natur aus anfällig für Distillations-Angriffe. Auch der ChatGPT-Entwickler OpenAI beschuldigte im vergangenen Jahr den chinesischen Konkurrenten DeepSeek, ähnliche Angriffe durchgeführt zu haben, um die eigenen Modelle zu verbessern.





