Analyse
12:02 Uhr, 12.11.2025

Abschreibungs-Blase? Das erzählt euch Michael Burry nicht!

Michael Burrys Narrativ vom "GPU-Abschreibungsproblem" als angeblicher Beweis einer KI-Blase greift komplett zu kurz. Der Vorwurf: Cloudanbieter würden Grafikkarten über sechs Jahre abschreiben, obwohl sie in der Praxis nach zwei bis drei Jahren veralten. Was steckt dahinter?

Erwähnte Instrumente

  • NVIDIA Corp.
    ISIN: US67066G1040Kopiert
    Kursstand: 193,160 $ (Nasdaq) - Zum Zeitpunkt der Veröffentlichung
    VerkaufenKaufen
  • NVIDIA Corp. - WKN: 918422 - ISIN: US67066G1040 - Kurs: 193,160 $ (Nasdaq)

Laut Burry wollen die Hyperscaler ihre Buchgewinne künstlich aufblähen und die Profitabilität der KI-Infrastruktur überbewerten. Doch eine genauere Betrachtung zeigt, dass das Argument auf wackeligen Füßen steht.

Ursprung des "2-3-Jahre“-Arguments

Die meistzitierte Quelle ist das Llama-3-Technikpapier von Meta. Dort wurden 16.384 H100-GPUs über 54 Tage eingesetzt (mit 466 Unterbrechungen, 419 davon unplanmäßig).

Hochgerechnet ergibt sich eine jährliche Ausfallrate (AFR) von rund 9 %, was eine kumulative Ausfallwahrscheinlichkeit von etwa 27 % nach drei Jahren impliziert. Eine logische Folgerung wäre also, dass Trainings-GPUs nach zwei bis drei Jahren stark ausfallgefährdet sind.

Doch das ist nur die halbe Wahrheit: Eine "Unterbrechung" ist nicht gleichbedeutend mit einem Hardwareausfall. Viele Störungen treten mehrfach auf denselben Geräten auf. Nvidias Validierung und Burn-in-Prozesse wurden seitdem stark verbessert, wodurch heutige AFRs eher unter 6 % liegen dürften.

Du willst künftig auch dabei sein, wenn ich eine neue Aktie entdecke?

AktienPuls360 | Fundi & Charting: Best of Both Worlds

👉 Überzeuge Dich 14 Tage unverbindlich

Im AktienPuls360 habe ich mich mit Rocco Gräfe als Mann mit über 20 Jahren Erfahrung in Charttechnik zusammengeschlossen und wir kombinieren unsere Talente miteinander. Tiefes fundamentales Research & passende charttechnische Einstiege sind keine Traumvorstellung, sondern sind seit Anfang September 2024 Realität.

Drei Depots mit allen Trades, tiefgründige Recherchen, das Experten-Battle Charttechnik vs. Fundamentalanalyse, tägliche Big-Picture-Einordnungen der Märkte und Live-Webinare zu DAX und US-Werten, ...

Essenziell: Unterschied zwischen Training und Inferenz

Trainings-GPUs laufen unter Dauerlast und hoher Temperatur. Klar, dass sie schneller verschleißen.

Inference-GPUs dagegen sind deutlich weniger beansprucht. Ihre jährliche Ausfallrate liegt meist unter 3 %, teils sogar unter 2 %. Da Cloudanbieter immer mehr GPUs für Inferenzzwecke einsetzen (der eigentliche Profitbringer), ist eine Abschreibungsdauer von fünf bis sechs Jahren durchaus realistisch.

Tatsächlich werden in vielen Rechenzentren A100s nach fünf Jahren noch produktiv genutzt, insbesondere für Inferenz.

Ferner relevant: Restwert und Zweitmarkt

Das Argument, ältere GPUs würden wertlos, stimmt in der aktuellen Marktlage nicht. Laut CoreWeave-CEO Michael Intrator konnte das Unternehmen kürzlich einen großen H100-Clustervertrag zwei Quartale vor Ablauf zu 95 % des ursprünglichen Preises erneuern. Und selbst extrem alte A100s sind komplett ausverkauft. Solange Rechenkapazität knapp bleibt, behalten selbst ältere GPUs erheblichen Restwert.

Fazit: Abschreibungsblase?

Die Sechs-Jahres-Abschreibung ist keineswegs eine gezielte buchhalterische Schönrechnung, sondern eine durchschnittliche Mischgröße aus Training und Inferenz. Kurzlebige Trainingskarten werden durch langlebige Inferenzsysteme ausgeglichen.

Wenn es eine Blase gibt. Wo steckt sie wirklich? Im AktienPuls360 gibt's die Antwort

👉 Überzeuge Dich 14 Tage unverbindlich


Viel Erfolg wünscht euch Valentin

Passende Produkte

WKN Long/Short KO Hebel Laufzeit Bid Ask
Keine Ergebnisse gefunden
Zur Produktsuche

5 Kommentare

Du willst kommentieren?

Die Kommentarfunktion auf stock3 ist Nutzerinnen und Nutzern mit einem unserer Abonnements vorbehalten.

  • für freie Beiträge: beliebiges Abonnement von stock3
  • für stock3 Plus-Beiträge: stock3 Plus-Abonnement
Zum Store Jetzt einloggen
  • MackyD
    MackyD

    Die Rechnung ist nicht ganz richtig. "Hochgerechnet ergibt sich eine jährliche Ausfallrate (AFR) von rund 9 %, was eine kumulative Ausfallwahrscheinlichkeit von etwa 27 %".

    Normiert auf drei Jahre verbleibt man bei 9%. Man kann nicht einfach 3*9% rechnen. Das gilt nur für die absolut Stunden. Die Ausfallwarscheinlichkeit würde allerdings unter Last auch bei dieser Art von HW nicht gleich bleiben, sondern steigen. Um das zu verbessern tragen genau die Burn-Ins bei.

    13:32 Uhr, 12.11.
  • TaxManBavaria
    TaxManBavaria

    das täuscht nicht darüber hinweg, dass die Cash-Flows von Meta und Co. das Tempo bei Investitionen so nicht halten werden können und wichtiger noch, darüber hinaus auch keinen echten ROI daraus schöpfen.

    12:54 Uhr, 12.11.
    1 Antwort anzeigen
  • AnJay
    AnJay

    "Transceivers in particular suffer from high wear and tear due to severe thermal cycling."
    2024:
    "

    For Nvidia GPUs, there is a tool called DCGMI Diagnostics that helps diagnose GPU errors such as SDCs. It helps catch a good chunk of common SDCs but unfortunately misses a lot of corner cases that result in numerical errors and performance issues.

    Something we experienced in our own testing of H100s from various Neoclouds was that DCGMI diagnostic level 4 was passing, but NVSwitch’s Arithmetic Logic Unit (ALU) was not working properly, leading to performance issues and wrong all-reduce results when utilizing the NVLS NCCL algorithm. We will dive much deeper into our benchmarking findings in an upcoming NCCL/RCCL collective communication article.

    Google’s Pathways, in contrast, excels at identifying and resolving SDCs. Due to the vertical integration of Google’s infrastructure and training stack, they are able to easily identify SDC checks as epilogue and prologue before starting their massive training workloads."

    12:44 Uhr, 12.11.
  • AnJay
    AnJay

    Ausfall ist auch wenn die GPU nicht wirklich funktioniert, aber nach einem Restart alles gut ist. Es muss nicht die GPU problematisch sein um das Training neu zu starten. Das Trainieren wird parallelisiert und wenn z.B. eine Netzwerkkarte ausfällt kann die GPU nichts liefern. Alle Komponenten, nicht nur die GPUs, aber auch Switches, Netzwerkkarten usw. brauchen burn-in und dies soll sich, laut Semianalysis auf 3-4 Wochen erstrecken. D.h. man verbraucht Strom einen Monat lang um die Komponenten zu konditionieren.
    "When NICs flap even for one microsecond, it causes NCCL to stall, and the entire training workload hangs. In such a case, it may take anywhere from a couple of minutes to 30 minutes to restart the workload. Top GPU clouds typically have a low rate of NCCL timeouts and NIC flaps, as they have already undergone the process of burning in their network and transceivers, and have taken essential steps such as cleaning dust off fiber cables, which is one of the leading causes of degraded goodput."

    12:41 Uhr, 12.11.