Fundamentale Nachricht
11:05 Uhr, 17.09.2018

Factor Investing: Mit Datenanalyse zur Rendite

Bewertung, Qualität, niedrige Volatilität und Marktstimmung bilden AXA-Finanzexperte Gideon Smith zufolge die Grundlage des sogenannten Factor Investing, eines Anlagegrundsatzes, der auf Basis bestimmter Faktoren in Aktien investiert.

Paris (GodmodeTrader.de) - Bewertung, Qualität, niedrige Volatilität und Marktstimmung – das sind vier Faktoren, die jedem Investor bekannt vorkommen sollten. Sie bilden die Grundlage des sogenannten Factor Investing, also eines Anlagegrundsatzes, der auf Basis bestimmter Faktoren in Aktien investiert, wie Gideon Smith, Europa-CIO von AXA IM Rosenberg Equities, in einem aktuellen Marktkommentar schreibt.

Nach Ansicht von Smith enthalten Faktoren Informationen über den zukünftigen Erfolg eines Unternehmens. „Bewertung und Qualität helfen uns, stabile, unterbewertete Unternehmen zu finden. Und Faktoren wie Marktstimmung können dazu beitragen, Unternehmen zu identifizieren, die hohes Wachstum und Erfolge erwarten lassen“, so Smith. Die Kunst beim Factor Investing sei es, eben diese Informationen deuten zu können. Dabei verließen die Rosenberg-Experten sich nicht allein auf Fundamentaldaten, sondern griffen auf unterschiedliche Modelle künstlicher Intelligenz zurück, heißt es weiter.

„Die erste Voraussetzung für erfolgreiches Factor Investing ist, dass es aktiv und researchorientiert ist, da es Erträge über die Rendite einer – meist effizienten – Marktbenchmark erwirtschaften muss“, erläutert Smith. Jeder Faktorstrategie gehe ein Versprechen voraus, etwa eine Wertentwicklung über der Benchmark, höhere Dividenden oder weniger Konjunktursensitivität. Ein Beispiel für ein Faktorportfolio sei die beliebte Low-Volatility-Strategie. Sie verspreche unterdurchschnittliche Kursvolatilität – durch die Auswahl von Aktien, die im Schnitt weniger schwankten. „Um solche Grundlagen in Faktoren zu überführen und dann diversifizierte Portfolios zusammenzustellen, sind Investmentkompetenz, fundierte Analysen und korrekte Daten unumgänglich“, so der Experte.

Um beispielsweise die zukünftige Aktienkursvolatilität zu prognostizieren, müsse mitunter vorausgesehen werden, wie erfolgreich oder erfolglos ein Unternehmen sein werde. Dies geschehe Smith zufolge mithilfe von Fundamentaldaten. „Doch zweifellos ist auch eine gewisse Modellierungskompetenz nötig. Wie schwer zukünftige Unternehmenserfolge zu prognostizieren sind, sieht man am Beispiel von Next, einem britischen Einzelhandelsunternehmen, dessen Kursvolatilität 2016 und 2017 deutlich gestiegen ist. Next litt unter der höheren Inflation aufgrund der Pfundschwäche nach dem Brexit-Referendum. Hinzu kamen Sektorverschiebungen; es wurde weniger Bekleidung gekauft“, erläutert Smith.

Volatilitätssprünge sind dem Experten zufolge nur schwer zu antizipieren und alles andere als linear. Empirische Modelle, die auch mit ungewöhnlichen nichtlinearen Ergebnissen fertig würden, könnten hier Abhilfe schaffen. Rosenberg nutzt dazu zwei unterschiedliche Algorithmen: künstliche neuronale Netze und das Random-Forest-Modell. Während erstere mithilfe von plausiblen Inputvariablen eine bestimmte Entwicklung vorhersagten, erweise sich zweiteres als sehr effizient, wenn es darum gehe, in großen Datenmengen wichtige Zusammenhänge herauszufiltern, heißt es weiter. „Mit dieser Form des maschinellen Lernens können wir Aktien finden, bei denen Volatilitätssprünge zu erwarten sind. Darauf schließen wir sie aus den niedrigvolatilen Portfolios aus, um beste Ergebnisse zu erzielen“, so Smith.

Die Analyse auf Basis dieser Techniken habe bereits zu einer deutlichen Verbesserung gegenüber einem einfacheren linearen Modell geführt. „In Backtests erwies sich das naive Modell bei der Prognose extremer Erträge in 73 Prozent aller Fälle als richtig. Mit den Techniken des maschinellen Lernens ließ sich die Quote auf 86 Prozent steigern, also um 13 Prozentpunkte“, berichtet Smith.

Modernere Techniken der Dateninterpretation können dem Experten zufolge also einen traditionelleren, eher fundamentalen quantitativen Modellansatz verbessern. „Wir meinen, dass die Anwendung solcher Techniken zu neuen Erkenntnissen führen kann, wenn es keinen etablierten ökonomischen Rahmen für statistische Zusammenhänge gibt. Allerdings muss der Analyst akzeptieren, dass die Daten den statistischen Modellzusammenhang festlegen“, so Smith.

Wichtig sei daher Transparenz bei der Nutzung und die Pflege dieser Techniken. „Die genannten Modelle sind durch öffentliche Code-Bibliotheken leicht zugänglich, aber ihre Interpretation und ihr Nutzen für Vermögensmanagement- und Altersvorsorgesysteme müssen klar sein. Erst dann ist eine praktische Anwendung möglich“, schließt der Experte.

Keine Kommentare

Du willst kommentieren?

Die Kommentarfunktion auf stock3 ist Nutzerinnen und Nutzern mit einem unserer Abonnements vorbehalten.

  • für freie Beiträge: beliebiges Abonnement von stock3
  • für stock3 Plus-Beiträge: stock3 Plus-Abonnement
Zum Store Jetzt einloggen

Das könnte Dich auch interessieren

Über den Experten

Tomke Hansmann
Tomke Hansmann
Redakteurin

Nach ihrem Studium und einer anschließenden journalistischen Ausbildung arbeitet Tomke Hansmann seit dem Jahr 2000 im Umfeld Börse, zunächst als Online-Wirtschaftsredakteurin. Nach einem kurzen Abstecher in den Printjournalismus bei einer Medien-/PR-Agentur war sie von 2004 bis 2010 als Devisenanalystin im Research bei einer Wertpapierhandelsbank beschäftigt. Seitdem ist Tomke Hansmann freiberuflich als Wirtschafts- und Börsenjournalistin für Online-Medien tätig. Ihre Schwerpunkte sind Marktberichte und -kommentare sowie News und Analysen (fundamental und charttechnisch) zu Devisen, Rohstoffen und US-Aktien.

Mehr Experten