US-Technologiekonzerne bündeln Kräfte gegen die Replikation von KI-Modellen durch chinesische Wettbewerber
- Lesezeichen für Artikel anlegen
- Artikel Url in die Zwischenablage kopieren
- Artikel per Mail weiterleiten
- Artikel auf X teilen
- Artikel auf WhatsApp teilen
- Ausdrucken oder als PDF speichern
Erwähnte Instrumente
- VerkaufenKaufen
Schnell. Sicher. Direkt.Trading über stock3 war noch nie so einfach.
Mehr erfahren Nein, danke
- Alphabet Inc. (Class C) - WKN: A14Y6H - ISIN: US02079K1079 - Kurs: 297,660 $ (Nasdaq)
Bei der Distillation dient ein hoch entwickeltes Ursprungsmodell als Basis, um ein neues, kompakteres Modell mit identischen Fähigkeiten zu trainieren. Die US-Unternehmen argumentieren, dass Drittparteien dieses Verfahren nutzen, um proprietäre Technologien ohne Genehmigung zu kopieren. Dies geschieht dann natürlich zu einem Bruchteil der ursprünglichen Entwicklungskosten. Laut Einschätzung von US-Regierungsvertretern kostet diese unautorisierte Extraktion die Entwickler im Silicon Valley jährlich entgangene Gewinne in Höhe von mehreren Mrd. USD.
In einem Memorandum an das US-Repräsentantenhaus warf OpenAI dem asiatischen Wettbewerber DeepSeek vor, "von den Fähigkeiten, die von OpenAI und anderen US-Spitzenlaboren entwickelt wurden, als Trittbrettfahrer zu profitieren." Bereits nach der Veröffentlichung des Modells R1 durch DeepSeek im Januar 2025 untersuchten OpenAI und Microsoft, ob das Start-up Daten unrechtmäßig extrahiert habe. Anthropic blockierte im vergangenen Jahr den Zugang für chinesisch kontrollierte Firmen. Im Februar benannte Anthropic die Labore DeepSeek, Moonshot und MiniMax explizit als Akteure, die Fähigkeiten des Modells Claude abgriffen. Auch Google verzeichnet laut einem eigenen Bericht einen Anstieg derartiger Extraktionsversuche.
Viele Modelle chinesischer Entwickler basieren auf einem "Open-Weight-Ansatz". Nutzer laden die zugrunde liegenden Systemgewichte öffentlich herunter und betreiben diese kostengünstig auf eigenen Servern. Neben dem wirtschaftlichen Angriff auf die geschlossenen Bezahlsysteme der US-Anbieter betonen Anthropic und weitere Akteure auch ein nationales Sicherheitsrisiko. Anthropic warnt davor, dass destillierte Modelle oftmals nicht über die ursprünglichen Sicherheitsmechanismen verfügen. Diese Schutzbarrieren sollen beispielsweise verhindern, dass Nutzer Anleitungen zur Erschaffung tödlicher Krankheitserreger generieren.
Um das Vorgehen der Wettbewerber zu identifizieren, orientieren sich die KI-Firmen an Standards der Cybersicherheitsbranche. Sie analysieren gemeinsam die Taktiken der Angreifer sowie das Volumen der Datenabfragen.
Die Brisanz der Adversarial Distillation zeigt sich in der massiven Diskrepanz des Ressourceneinsatzes beider Lager.
| US-Proprietäre Modelle | Chinesische Open-Weight-Modelle |
| Geschlossener Zugang über kostenpflichtige APIs | Öffentliche Systemgewichte zur lokalen Nutzung |
| Hohe Infrastrukturausgaben (ca. 610 Mrd. USD für 2026) | Geringe Trainingskosten (R1-Modell: ca. 6 Mio. USD) |
| Integrierte Sicherheitsbarrieren (Guardrails) | Umgehung der ursprünglichen Restriktionen möglich |
Die US-Regierung unterstützt die Abwehrbemühungen. Der im vergangenen Jahr vorgestellte AI Action Plan plädiert explizit für die Einrichtung eines Zentrums zum Informationsaustausch zwischen den KI-Entwicklern. Die operative Umsetzung auf Unternehmensseite stagniert jedoch derzeit in Teilen. Die Konzerne verweisen auf juristische Unsicherheiten bezüglich der geltenden Kartellrichtlinien, die den Austausch wettbewerbsrelevanter Daten limitieren.
Die US-Unternehmen fordern mehr rechtliche Klarheit seitens der Regierung, um den Informationsaustausch unter den bestehenden Kartellvorgaben rechtssicher auszuweiten. Gleichzeitig bereitet sich die Branche auf ein bevorstehendes, größeres Update der Modelle von DeepSeek vor, das die technologische Auseinandersetzung über geistiges Eigentum bei Künstlicher Intelligenz auf eine neue Stufe heben wird.

Passende Produkte
| WKN | Long/Short | KO | Hebel | Laufzeit | Bid | Ask |
|---|

Keine Kommentare
Die Kommentarfunktion auf stock3 ist Nutzerinnen und Nutzern mit einem unserer Abonnements vorbehalten.