Machine Learning im Aktienportfolio: Präzision statt Black Box
Nicht alles am Aktienmarkt verläuft geradlinig: Schwellenwerte, Interaktionen und zustandsabhängige Effekte lassen sich mit klassischen linearen Modellen nur schwer erfassen. Wie sich diese Lücke mit einem disziplinierten Machine-Learning-Ansatz schließen lässt, erläutert Carsten Rother, Co-Head of Research Forecasts bei Quoniam, im Interview.
In Kürze
-
Nicht alles verläuft geradlinig. Viele Zusammenhänge am Aktienmarkt sind nicht linear – sie hängen vom Kontext ab.
-
Machine Learning ergänzt das Basismodell. Es korrigiert systematisch die blinden Flecken klassischer Multifaktormodelle.
-
Disziplin schlägt Komplexität. Ökonomische Logik, strenge Tests und Transparenz verhindern Modellüberoptimierung.
Wie lässt sich diese Lücke schließen? Carsten Rother, Co-Head of Research Forecasts, erklärt, warum Machine Learning bei Quoniam kein Ersatz klassischer Modelle ist, sondern eine gezielte Ergänzung: um Schwellenwerte, Interaktionen und zustandsabhängige Effekte systematisch zu erfassen – transparent, diszipliniert und seit mehreren Jahren im Live-Einsatz.
Carsten, warum reichen klassische lineare Modelle in der Aktienanlage heute nicht mehr aus?
Ein klassisches lineares Modell – wie es in Multifaktoransätzen verwendet wird – unterstellt, dass Effekte linear und additiv sind. Vereinfacht gesagt: Wenn ein Faktor doppelt so stark ausgeprägt ist, wirkt er auch doppelt so stark. Und wenn mehrere Faktoren positiv sind, addieren sich ihre Effekte einfach.
Diese Annahme ist robust und gut interpretierbar – und genau deshalb ist sie seit Jahrzehnten die Basis quantitativer Aktienmodelle. Das Problem ist nur: Die Realität verhält sich oft nicht so geradlinig.
Nicht alles am Aktienmarkt verläuft geradlinig. Genau dort setzen wir Machine Learning ein.
Carsten Rother,
Co-Head of Research Forecasts
Eine Nichtlinearität bedeutet im Kern, dass ein Zusammenhang nicht proportional oder konstant verläuft. Die Wirkung hängt vom Kontext oder von Schwellenwerten ab.
Nehmen wir das Beispiel Value: Ein lineares Modell geht davon aus, dass die günstigste Aktie die höchste erwartete Rendite hat – und dazwischen verläuft alles gleichmäßig. In der Praxis wissen wir aber: Manche Aktien sind günstig, weil das Geschäftsmodell strukturelle Probleme hat – „cheap for a reason“.
Das heißt: Sehr niedrige Bewertungen können je nach Qualität des Unternehmens völlig unterschiedlich wirken. Genau diese Kontextabhängigkeit ist eine Nichtlinearität.
Kannst du das noch greifbarer machen?
Ein sehr anschauliches Beispiel sind sogenannte „Thresholds“.
Denk an Verschuldung. Zwischen „niedrig“ und „moderat“ verschuldet ist der Unterschied oft kaum relevant. Überschreitet ein Unternehmen jedoch eine kritische Marke – ein „Threshold“, steigt das Risiko überproportional an.
Ein lineares Modell würde sagen: Mehr Verschuldung ist gleichmäßig schlechter. In der Realität ist es eher so: Lange passiert wenig – und dann kippt es.
Genau solche Kipppunkte oder Interaktionen zwischen Faktoren sind typisch nichtlinear. Machine Learning hilft uns, diese Muster systematisch zu identifizieren – nicht nur in Einzelfällen, sondern über das gesamte Anlageuniversum hinweg.
Ersetzt ihr damit euer klassisches Multifaktormodell?
Nein. Das lineare Modell bleibt unser Fundament.
Unser Ansatz ist bewusst zweistufig: Zuerst erstellen wir eine strukturierte, ökonomisch begründete lineare Prognose – konkret unser etabliertes Multifaktormodell auf Basis von Value, Quality und Sentiment. Diese Faktoren werden kombiniert und liefern eine transparente, robuste Basisschätzung für jede Aktie im Universum.
Anschließend prüfen wir systematisch, ob es Muster gibt, die dieses Modell über- oder unterschätzt. Technisch gesprochen wenden wir Machine Learning auf die Residuen des linearen Modells an – also auf den unerklärten Teil der Rendite (siehe Abbildung 1). Machine Learning fungiert damit als Korrektiv, nicht als Ersatz. Je nach erkannter Interaktion oder Schwellenwirkung kann die Prognose nach oben oder unten angepasst werden.
Abbildung 1: Vergleich Machine Learning und lineares Modell
Im Portfolio-Management bleiben beide Komponenten nachvollziehbar: Die Beiträge aus Value, Quality und Sentiment sind separat sichtbar, und der Machine-Learning-Anteil erscheint als eigenständiger Baustein. Die Gesamtprognose entsteht aus dem kontrollierten Zusammenspiel beider Elemente.
Dieser Ansatz ist seit 2018 integraler Bestandteil unserer Prognosesysteme und vollständig in unseren Research- und Produktionsprozess eingebettet.
Mehr Modellkomplexität klingt zunächst attraktiv. Aber wann wird sie problematisch?
Eine berechtigte Frage. An den Finanzmärkten arbeiten wir mit einem relativ niedrigen Signal-Rausch-Verhältnis, was bedeutet, dass echte Renditesignale oft schwach sind und sich nur schwer von zufälligen Marktschwankungen unterscheiden lassen. Es ist leicht, in historischen Daten Muster zu finden, die nur zufällig existieren.
Das ist das eigentliche Risiko: Ein Modell kann in der Vergangenheit hervorragend aussehen – aber nur deshalb, weil es Zufälligkeiten „gelernt“ hat, die sich nicht wiederholen. Für Investoren wäre das gefährlich, weil scheinbare Prognosekraft dann in der Zukunft verschwindet.
Deshalb disziplinieren wir unsere Modelle sehr strikt:
- Klare ökonomische Motivation. Wir starten mit einer inhaltlichen Hypothese – nicht mit einem Algorithmus.
- Strenge Out-of-Sample-Tests. Ein Modell muss sich über unterschiedliche Marktphasen hinweg und auch außerhalb der getesteten Stichprobe bewähren.
- Transparenz und Monitoring. Das ML-Signal ist vollständig dekomponierbar und wird kontinuierlich überwacht.
Komplexität ist für uns nur dann gerechtfertigt, wenn sie einen stabilen Mehrwert liefert.
Welche Auswirkungen hat das auf die Portfoliokonstruktion?
Die wichtigste Veränderung ist: Alpha wird zustandsabhängig. Das bedeutet, dass die erwarteten Renditen je nach Marktbedingungen und Unternehmensmerkmalen variieren und nicht mehr in allen Umgebungen konstant sind. Wenn Zusammenhänge nichtlinear sind, variiert auch die Prognosesicherheit. Entsprechend differenzieren wir Positionsgrößen stärker: Das Exposure sollte dort stärker skaliert werden, wo das korrigierte Alpha robust und stabil ist, und zurückhaltender ausfallen, wo die Unsicherheit höher ist.
Zudem können Faktorallokationen flexibler gestaltet werden, wenn sich zeigt, dass bestimmte Prämien nur unter bestimmten Bedingungen wirken. Wenn Faktorprämien von Marktregimen oder Interaktionen abhängen, sind statische Faktor-Gewichte suboptimal. Die Portfoliokonstruktion muss daher zulassen, dass sich Faktor-Exposures und Risikobudgets im Zeitverlauf anpassen.
Wichtig ist: Das führt nicht zu einer Black-Box-Optimierung. Risiko, Turnover und Implementierbarkeit bleiben klar kontrolliert.
Machine Learning ist für uns kein Ersatz des linearen Modells – sondern ein präzises Korrektiv.
Carsten Rother,
Co-Head of Research Forecasts
Welche Fehlannahme über Machine Learning begegnet dir am häufigsten?
Viele erwarten entweder eine Revolution oder befürchten eine intransparente Black Box. Beides trifft aus unserer Sicht nicht zu.
Aktienmärkte sind kein klassisches KI-Umfeld mit riesigen Datenmengen und klaren Mustern. Machine Learning liefert hier keine Wunder, sondern graduelle Verbesserungen.
Der Mehrwert entsteht durch die Kombination aus ökonomischer Struktur, diszipliniertem Research-Prozess und kontrollierter Integration – nicht durch maximale Komplexität.
Zusammenfassung
- Lineare Multifaktormodelle sind robust und bleiben das Fundament quantitativer Aktienstrategien.
- Machine Learning ergänzt diesen Ansatz gezielt dort, wo Zusammenhänge nicht proportional verlaufen: bei Schwellenwerten, Interaktionen und zustandsabhängigen Effekten.
- Seit 2018 nutzt Quoniam diesen zweistufigen Ansatz, um Prognosen systematisch zu verfeinern – transparent, diszipliniert und mit klarem Fokus auf Stabilität statt Spektakel.