Factor Investing: Mit Datenanalyse zur Rendite
- Lesezeichen für Artikel anlegen
- Artikel Url in die Zwischenablage kopieren
- Artikel per Mail weiterleiten
- Artikel auf X teilen
- Artikel auf WhatsApp teilen
- Ausdrucken oder als PDF speichern
Paris (GodmodeTrader.de) - Bewertung, Qualität, niedrige Volatilität und Marktstimmung – das sind vier Faktoren, die jedem Investor bekannt vorkommen sollten. Sie bilden die Grundlage des sogenannten Factor Investing, also eines Anlagegrundsatzes, der auf Basis bestimmter Faktoren in Aktien investiert, wie Gideon Smith, Europa-CIO von AXA IM Rosenberg Equities, in einem aktuellen Marktkommentar schreibt.
Nach Ansicht von Smith enthalten Faktoren Informationen über den zukünftigen Erfolg eines Unternehmens. „Bewertung und Qualität helfen uns, stabile, unterbewertete Unternehmen zu finden. Und Faktoren wie Marktstimmung können dazu beitragen, Unternehmen zu identifizieren, die hohes Wachstum und Erfolge erwarten lassen“, so Smith. Die Kunst beim Factor Investing sei es, eben diese Informationen deuten zu können. Dabei verließen die Rosenberg-Experten sich nicht allein auf Fundamentaldaten, sondern griffen auf unterschiedliche Modelle künstlicher Intelligenz zurück, heißt es weiter.
„Die erste Voraussetzung für erfolgreiches Factor Investing ist, dass es aktiv und researchorientiert ist, da es Erträge über die Rendite einer – meist effizienten – Marktbenchmark erwirtschaften muss“, erläutert Smith. Jeder Faktorstrategie gehe ein Versprechen voraus, etwa eine Wertentwicklung über der Benchmark, höhere Dividenden oder weniger Konjunktursensitivität. Ein Beispiel für ein Faktorportfolio sei die beliebte Low-Volatility-Strategie. Sie verspreche unterdurchschnittliche Kursvolatilität – durch die Auswahl von Aktien, die im Schnitt weniger schwankten. „Um solche Grundlagen in Faktoren zu überführen und dann diversifizierte Portfolios zusammenzustellen, sind Investmentkompetenz, fundierte Analysen und korrekte Daten unumgänglich“, so der Experte.
Um beispielsweise die zukünftige Aktienkursvolatilität zu prognostizieren, müsse mitunter vorausgesehen werden, wie erfolgreich oder erfolglos ein Unternehmen sein werde. Dies geschehe Smith zufolge mithilfe von Fundamentaldaten. „Doch zweifellos ist auch eine gewisse Modellierungskompetenz nötig. Wie schwer zukünftige Unternehmenserfolge zu prognostizieren sind, sieht man am Beispiel von Next, einem britischen Einzelhandelsunternehmen, dessen Kursvolatilität 2016 und 2017 deutlich gestiegen ist. Next litt unter der höheren Inflation aufgrund der Pfundschwäche nach dem Brexit-Referendum. Hinzu kamen Sektorverschiebungen; es wurde weniger Bekleidung gekauft“, erläutert Smith.
Volatilitätssprünge sind dem Experten zufolge nur schwer zu antizipieren und alles andere als linear. Empirische Modelle, die auch mit ungewöhnlichen nichtlinearen Ergebnissen fertig würden, könnten hier Abhilfe schaffen. Rosenberg nutzt dazu zwei unterschiedliche Algorithmen: künstliche neuronale Netze und das Random-Forest-Modell. Während erstere mithilfe von plausiblen Inputvariablen eine bestimmte Entwicklung vorhersagten, erweise sich zweiteres als sehr effizient, wenn es darum gehe, in großen Datenmengen wichtige Zusammenhänge herauszufiltern, heißt es weiter. „Mit dieser Form des maschinellen Lernens können wir Aktien finden, bei denen Volatilitätssprünge zu erwarten sind. Darauf schließen wir sie aus den niedrigvolatilen Portfolios aus, um beste Ergebnisse zu erzielen“, so Smith.
Die Analyse auf Basis dieser Techniken habe bereits zu einer deutlichen Verbesserung gegenüber einem einfacheren linearen Modell geführt. „In Backtests erwies sich das naive Modell bei der Prognose extremer Erträge in 73 Prozent aller Fälle als richtig. Mit den Techniken des maschinellen Lernens ließ sich die Quote auf 86 Prozent steigern, also um 13 Prozentpunkte“, berichtet Smith.
Modernere Techniken der Dateninterpretation können dem Experten zufolge also einen traditionelleren, eher fundamentalen quantitativen Modellansatz verbessern. „Wir meinen, dass die Anwendung solcher Techniken zu neuen Erkenntnissen führen kann, wenn es keinen etablierten ökonomischen Rahmen für statistische Zusammenhänge gibt. Allerdings muss der Analyst akzeptieren, dass die Daten den statistischen Modellzusammenhang festlegen“, so Smith.
Wichtig sei daher Transparenz bei der Nutzung und die Pflege dieser Techniken. „Die genannten Modelle sind durch öffentliche Code-Bibliotheken leicht zugänglich, aber ihre Interpretation und ihr Nutzen für Vermögensmanagement- und Altersvorsorgesysteme müssen klar sein. Erst dann ist eine praktische Anwendung möglich“, schließt der Experte.
Keine Kommentare
Die Kommentarfunktion auf stock3 ist Nutzerinnen und Nutzern mit einem unserer Abonnements vorbehalten.