Kommentar
18:45 Uhr, 26.01.2025
"KI-Wunder" Deepseek aus China: Geben die KI-Konzerne viel zu viel Geld aus?
- Lesezeichen für Artikel anlegen
- Artikel Url in die Zwischenablage kopieren
- Artikel per Mail weiterleiten
- Artikel auf X teilen
- Artikel auf WhatsApp teilen
- Ausdrucken oder als PDF speichern
Statt 16 bis 100 TSD GPUs wie in dieser Leistungsklasse üblich, nutzte Deepseek für das Training angeblich nur 2048 H800-GPUs von Nvidia. Es wurde den Angaben nach auch nur ein Bruchteil der Trainingszeit benötigt, so benötigte z.B. Metas Llama-3-Modell, das zudem kleiner ist, 11 Mal so viele GPU-Stunden. Entwicklungskosten von Deepseek R1: Schlappe 5,6 Mio. USD !