Schlagwort-Archive: Risikomanagement

Source: Pixabay

Passivkritik: Passiv und ESG sind „gut“!

Passivkritik: Seit Friedrich Merz für den CDU-Vorsitz kandidiert, sind mehrere neue kritische Artikel über Blackrock –  den größten Investmentfondsanbieter weltweit und mit ishares auch einer der Weltmarktführer passiver Geldanlagen – und passive Geldanlagen im Allgemeinen erschienen (z.B. Dennis Kremer: Die neue Macht der Fonds in der Frankfurter Allgemeinen Sonntagszeitung vom 4.11., S. 35). Dabei werden passive Investments auch in Bezug auf ihre „Verantwortung“ kritisiert (siehe Christian Kirchner: Blackrock:  Warum Machtmissbrauch nicht das Problem ist, in Capital, 2.11.2018). Auch viele sogenannte aktive Fondsmanager meinen, dass verantwortungsvolle Geldanlagen nur aktiv erfolgreich umgesetzt werden können.

Bei der Kritik  werden manchmal einige Punkte vergessen oder nicht ausreichend gewürdigt: Weiterlesen

Source: Pixabay

Personalisierung: Können nur Nackte reich werden? Oder: Fremd- versus Selbstpersonalisierung

Personalisierung ist ein heisses Thema: Der im Mai erschiene Global Retail Banking Report der Boston Consulting Group wurde „The Power of Personalization“ genannt. Aber im aktuellen Digital Banking Report mit dem Titel „The Power of Personalization“ heisst es: „94% of Banking Firms Unable to Deliver on ‘Personalization Promise“ (The Financial Brand, 4.9.2018). Dass Produktanbieter Vorteile durch Personalisierung haben ist klar. Aber gilt das auch für Anleger? Weiterlesen

Source: Pixabay

Evidence Based Investment Analysis – New (first?) online trainings available

DVFA, the German association for financial analysis and asset management, has just published two training videos for Evidence Based Investment Analysis (English version and German version, initial DVFA EBIA publication see here; my last EBIA text see here). I am proud that I have been asked to develop and provide the trainings. According to my knowledge, they are quite unique. Here is the summary in English: Weiterlesen

Source: Pixabay

Passive Outperformance von Indizes

Hier sind meine 10 Thesen zu Möglichkeiten der Outperformance von „Märkten“ (Die Thesen  und ihre Begründungen wurden zuerst am 3.8.2018 auf dem  RoboAdvisor Portal veröffentlicht):

  1. „Den Markt“ gibt es nicht: Das Multi-Asset Problem (siehe hier).
  2. Es fehlen gute Multi-Asset Benchmarks aber es gibt gute Selbsttestmöglichkeiten (siehe  www.portfoliocharts.com und www.portfoliovisualizer.com)
  3. „Passiv gibt es nicht“ bzw. das Index-Selektionsproblem (siehe  Indexselektion)
  4. Manche Indizes sind einfach zu schlagen
  5. Outperformance-Illusion von Faktorinvestments und Smart Beta
  6. Viele Studien zeigen, dass traditionelle Indizes auch ohne Faktorwetten einfach zu schlagen sind (siehe z.B. Söhnholz, D. (2012): Renditenorientierte Diversifikation 2.0 und Risiko-Overlays: Prognosefreie systematische Umsetzung, Arbeitspapier Söhnholz Advisors GmbH, 27.6 oder auch hier).
  7. Effiziente Trendfolge und die Outperformance-Illusion aktiver Risikomanager
  8. Größtes Problem ist falsches Anlegerverhalten bzw. falsches Market Timing (siehe z.B. hier).
  9. Empfehlung für Anleger: Einfach-Passiv ist besser als aktiv und ESG schadet nicht (siehe hier)
  10. Empfehlung auch für Robo-Advisors: Einfach-Passiv ist besser als aktiv und ESG schadet nicht (siehe auch hier).
Source: Pixabay

Multi-Asset Benchmarks: Gibts nicht, will keiner. Oder doch?

Bei der Kapitalanlage geht es darum, eine gute Rendite mit einem akzeptablen Risiko zu erreichen. Was „gut“ und „akzeptabel“ ist, wird meist anhand von Benchmarks bzw. Indizes gemessen. Obwohl fast alle Geldanleger „Multi-Asset“ Strategien verfolgen, gibt es keine anerkannten Multi-Asset Benchmarks. Das sollte sich ändern.  Weiterlesen

Source: Pixabay

Big Data und Machine Learning verschlechtern die Anlageperformance und Small Data ist attraktiv

„Maschinelles Lernen ist ein Oberbegriff für die „künstliche“ Generierung von Wissen aus Erfahrung: Ein künstliches System lernt aus Beispielen und kann diese nach Beendigung der Lernphase verallgemeinern. …. Das Thema ist eng verwandt mit …. „Data-Mining“ (Wikipedia, 19.11.2017). Unter Data-Mining „versteht man die systematische Anwendung statistischer Methoden auf große Datenbestände (insbesondere „Big Data“ bzw. Massendaten) mit dem Ziel, neue Querverbindungen und Trends zu erkennen“ (Wikipedia, 19.11.2017).

Während sich maschinelles Lernen zunächst gut anhört, wird „Data-Mining“ von unabhängigen Finanzexperten schon lange stark kritisiert. Mit meiner Firma Diversifikator verfolge ich bewußt einen möglichst einfachen Ansatz, der ohne (No Data) bzw. mit wenig (Small Data) Daten auskommt (s. auch  Evidenzbasierung und Researchbasierung ).

In effizienten Kapitalmärkten bringt Big Data keine Vorteile

Es gibt mehrere mögliche Argumentationslinien: Wenn man von der vollkommenen Effizienz der Kapitalmärkte überzeugt ist bedeutet das, dass die Kapitalmärkte jederzeit alle verfügbaren Informationen widerspiegeln. Ein Informationsvorsprung durch mehr oder andere Daten (Data-Mining) oder bessere Auswertungen der Daten (Machine Learning) wird nach dieser Theorie sofort bzw. – bei der abgeschwächten Markeffizienz-Annahme  – kurzfristig von anderen Marktteilnehmern eingeholt, so dass man damit keine oder nur sehr kurzfristige finanzielle Vorteile erhält. Investitionen in Daten oder maschinelles Lernen lohnen sich so nur für sehr wenige Anleger und „Small Data“ schadet nicht.

Wenn der Kapitalmarkt nicht effizient wäre, sollte es Finanzprodukte bzw. Portfoliomanager geben, die den Markt dauerhaft schlagen. Das war aber in der Vergangenheit nicht der Fall bzw. wenn es solche Manager bzw. Produkte gab, konnten sie nicht systematisch vorab identifiziert werden. Wenn es mal einem Manager gelang jahrelang bessere Performance als eine adäquate passive Benchmark zu erwirtschaften, war das statistisch zu erwarten, also Zufall.

Big Data ist nicht neu

Trotzdem gibt es offenbar zunehmend mehr Anhänger von Big Data im Finanzsektor. Dabei ist Data-Mining nicht grundsätzlich neu, wie man z.B. bei einigen großen Hedgefondsanbietern feststellen kann, sondern kann mit heutigen Computerkapazitäten und verfügbaren Daten nur effizienter durchgeführt werden als früher. In der Vergangenheit war Data-Mining aber offenbar keine besonders erfolgreiche Geldanlagestrategie. Denn wenn Data-Mining in der Vergangenheit erfolgreich gewesen wäre, hätten viel mehr Finanzprodukte Überrenditen erbringen müssen (Nachtrag: siehe dazu auch Marcos Lopez de Prado: Top 10 Reasons Most Machine Learning Funds Fail, Computational Research Division, Lawrence Berkeley National Laboratory, Arbeitspapier vom 27.1.2018). 

Sogenannte (oft Data-Mining basierte) Backtests mit sehr guten Rückrechnungsergebnissen sind relativ einfach zu produzieren. Inzwischen git es einen ganzen Zoo von Faktoren, mit denen man angeblich Outperformance genieren kann. Viele der „Tiere“ im Zoo wurden mit Hilfe von Data-Mining identifiziert. Finanzprodukte mit guten Backtests zeigen jedoch sehr häufig relativ schlechte Performance, nachdem man sie tatsächlich am Markt kaufen kann. Das kann man z.B. aktuell an zahlreichen sogenannten Smart-Beta ETFs sehen (s.a. Faktorinvestments).

Eines der Grundprobleme ist, dass Portfoliomanager für ihre Modelle neben guten Vergangenheitsdaten oft auch zahlreiche gute Prognosen benötigen, zum Beispiel Prognosen über Faktorentwicklungen. Finanzprognosen sind aber besonders schwierig („vor allem, wenn sie die Zukunft betreffen“, unbekannter Verfasser). So reicht es meist nicht, wenn die gute Performance attraktiver Faktoren der Vergangenheit einfach fortgeschrieben wird.

Man kann natürlich argumentieren, dass die EDV-Fortschritte erst jetzt so groß sind, dass maschinelles Lernen und Big Data künftig zu besseren Ergebnissen führen werden. Das wäre allerdings noch zu zeigen. Ich bleibe skeptisch.

Passive günstige „small data“ Anlagen sind besser als aktive Anlagen

Eher scheint das Gegenteil zuzutreffen: Einfache „Small Data“ Geldanlagen scheinen komplexen „big data“ Geldanlagen überlegen zu sein. Das sieht man nicht nur an den Vergleichen von aktiven (eher „Big Data“) mit passiven (eher „Small Data“) Geldanlagen. Dabei kann man noch argumentieren, dass die passiven nur besser abschneiden, weil sie mit geringeren Kosten verbunden sind. Aber auch nach Bereinigung um die höheren Kosten sind aktive Manager meist nicht besser als passive.

Es gibt weitere Indikationen dafür, dass einfache Geldanlagen besser sind als komplexe. So erweist sich eine naive Allokation auf Anlageklassen, z.B. die 50/50 Aufteilung auf Aktien und Anleihen, oft als mindestens ebenso gut wie komplexere Allokationen.

Auch innerhalb der Anlageklassen kann man zeigen, dass Gleichgewichtungen von Aktien anderen Gewichtungsmethoden sehr oft überlegen sind (Gleichgewichtung). Zudem kann man meist feststellen, dass Portfolios mit relativ seltenen Anpassungen (sogar unabhängig von den teilweise sehr hohen Kosten häufiger Umschichtungen) kaum schlechtere Ergebnisse bringen als Portfolios mit häufigeren Umschichtungen,  selbst wenn diese durch noch so ausgearbeitete quantitative Risikomanagementsysteme veranlasst werden (siehe z.B. Rebalanzierungen/Sparpläne und Dokument Diversifikator Test von Risikomanagementmodellen auf www.diversifikator.com).

Big Data ist intransparent

Hinzu kommt, dass viele der aktiven und/oder quantitativen Fonds in Bezug auf genutzte Daten und Modelle sogenannte Black Boxes sind, die selbst für professionelle Fondsanalysten kaum nachvollziehbar sind. Einfache Ansätze sind naturgemäß transparenter.

Und den zahlreichen benchmarkorientierten institutionellen Anlegern bringt Big Data und Machine Learning auch nicht viel, da sie sowieso nur möglichst wenig von ihren Benchmarks abweichen dürfen.

Pflicht zu Big Data?

Geldanlagemanager sollten daher nicht dazu gezwungen werden, möglichst viele Daten zu verarbeiten. Ein solcher Druck kann von der Aufsicht kommen oder von anderen sogenannten Stakeholdern. So sieht der im März 2018 vorgestellte Aktionsplan der EU zur Finanzierung des nachhaltigen Wachstums vor, künftig ESG-Informationen (Environment, Social, Governance) zu berücksichtigen. Ich bin zwar ein großer Anhänger der Nutzung von ESG Daten, aber Vorschriften zur Datennutzung bei der Kapitalanlage halte ich aus Rendite- bzw. Risikogesichtspunkten nicht für nötig (siehe Blogbeitrag).

So kann man argumentieren, dass verantwortungsvolle Portfolios Informationen zu möglichen ESG-Problemen („Controversies“) eines Unternehmens sehr zeitnah berücksichtigen sollten. Damit müssen „News“ über alle Unternehmen sehr zeitnah verfolgt werden und es muss abgeschätzt werden, wie stark die möglichen Auswirkungen von News auf die E, S und G Dimensionen für das jeweilige Unternehmen wirken.

Inzwischen gibt es professionelle Anbieter, die solche Services teilweise sogar zu erträglichen Preisen verkaufen. Durch die Nutzung solcher Daten kommt es aber typischerweise zu Umschichtungen in Portfolios, die teilweise mit erheblichen Kosten verbunden sind. Wir konnten bisher nicht feststellen, dass die Nutzung solcher Informationen zu besseren Anlageergebnissen führt. Das liegt aber vielleicht auch daran, dass unsere Vorabselektion der Aktien hohe Anforderungen an die ESG Kriterien stellt.

Gut für Anbieter: Einfachere Compliance und Vermarktung mit Big Data

Auch die ESG-Portfolios von Diversifikator sind daher sehr einfach und vor allem transaktionsarm bzw. kostengünstig gehalten (siehe Konzeptionell-regelbasierte Portfolios). Aber institutionellen Anlegern werden Zusatzservices angeboten, so dass neue Entwicklungen bei Bedarf auch schnell umgesetzt werden können.

So hilft „Big Data“ (Newsidentifikation) und Machine Learning (automatisierte Berechnung der möglichen Newsauswirkungen auf die E, S, G Qualität eines Unternehmens)  in diesem Fall zwar nicht unbedingt dabei bessere Anlageergebnisse zu erreichen, aber interne (Compliance) und externe Anforderungen (Regulierung) sind leichter zu erfüllen, wenn man über mehr Daten verfügt.

Weitere positive Auswirkungen von Big Data und maschinellem Lernen habe ich in der Kapitalanlage bisher aber noch nicht in überzeugender Form gesehen.

Anleger kaufen aber vielleicht trotzdem lieber ein „modernes“ Portfolio, das maschinelles Lernen und Big Data verfolgt, als ein „einfaches“ Portfolio. Sie sollten jedoch immer versuchen, Transparenz über die Daten und Modelle der Portfoliomanager zu erhalten und vor allem die mit diesen Ansätze verbundenen (Transaktions-)Kosten beachten, denn bisher haben sich höhere Kosten in der Kapitalanlage nur sehr selten ausgezahlt.

Big Data kann Service verbessern

Anders sieht es im Kundenservice aus. Hier kann mit Hilfe von vielen Daten und maschinellem Lernen grundsätzlich ein besserer Kundenservice geboten werden. Als Beispiel wird dabei gerne Amazon mit seinen massgeschneiderten Kaufempfehlungen genannt. Dafür müssen jedoch Daten des Anlegers genutzt werden.

Aber auch in diesem Fall geht Diversifikator bewusst einen anderen Weg, den wir als „No Data“ bzw. „Small Data“ Ansatz bezeichnen. Geldanleger müssen ihren Depotbanken und Anlageberatern bzw. Vermögensverwaltern sowieso schon sehr viele und zunehmend mehr Daten offenlegen. Diversifikator selbst möchte diese Daten nicht auch noch einmal erheben (siehe Fintechs und Datenschutz). Stattdessen werden Daten und Tools anmeldefrei und kostenlos zum „Test-it-Yourself“ bereitgestellt.

Zur Bestimmung der individuell geeigneten Anlageallokation kann der Anleger selbst oder sein Berater mit Hilfe eines einfachen (Small Data)  und komplett transparenten Tools die Verlusttoleranz des Anlegers feststellen. Es sind weder (meist intransparente) Prognosen noch Optimierungen nötig. Kriterienbasiert und ebenfalls prognose- und optimierungsfrei („Small Data“) können Anleger und Berater zum Beispiel aus mehreren verantwortungsvollen ESG Portfolios wählen.

Mein Fazit: Big Data und Machine Learning sind in Bezug auf Research und Umsetzung bzw. Handel mit zusätzlichen Kosten verbunden und führen damit tendenziell zu niedrigeren Kapitalanlagerenditen. Die Compliance und der Vertrieb bzw. Kundenservice kann jedoch damit grundsätzlich unterstützt werden. Anleger müssen selbst entscheiden, was Ihnen wichtiger ist.

Source: Pixabay

Einfaches Risikomanagement kann erstaunlich gut funktionieren

Ein angeblich fehlendes Risikomanagement war bisher der Hauptkritikpunkt an den Portfolios meiner Firma Diversifikator (die „Online Portfolio Strategen“). Diversifikator bietet bisher nur besonders passive Portfolios an, für die nicht einmal ein regelmäßiges Rebalancing zwingend vorgesehen ist.  Diversifikator verfolgt ein B2B(&C) Konzept und Beratern fällt es offenbar schwer, „zu einfache“ Portfolios anzubieten. Dabei ist die bisherige „echte“ Performance der Portfolios sogar noch besser als die schon sehr guten Rückrechnungen. Weiterlesen

Source: Pixabay

Mit mehr Mut zur Einfachheit könnten viel bessere Anlage-Ergebnisse erreicht werden

Anleger sollten mehr Mut haben: In den letzten 10 Jahren haben kapitalgewichtet-aggregierte Fonds gleichgewichtet-aggregierte Fonds  outperformt, was für gute Fondselektionsfähigkeiten von Anlegern spricht (s. Rekenthaler für US Fonds, wie die meisten der u.g. Studien). Die Outperformance kommt vor allem dadurch zustande, dass Weiterlesen

Source: Pixabay

Robo-Advisors nützen auch Firmenkunden

Sind Robo-Advisors für Firmenkunden interessant? Firmenkunden bzw. die Manager von Firmenliquidität wollen doch persönlich beraten werden und brauchen auch keine voll automatisierte Anlage. Auch die Umsetzung machen doch Berater für sie, oder etwa nicht? Weiterlesen

Source: Pixabay

Faktorallokation ist konzeptionell und operationell schwierig, Faktoranalysen sind aber wichtig

Das Grundproblem einer faktorbasierten Allokation (Faktorallokation) ist dem der Assetklassen-Diversifikation sehr ähnlich: Es gibt keinen Konsens darüber, welche Assetklassen bzw. Faktoren die Basis der Allokation sein sollten. Ebenso wie unter einer Assetklasse kann Vieles als „Faktor“ verstanden werden. Grundsätzlich ist damit eine Variable gemeint, die einen systematischen Einfluß auf Renditen oder Risiken von Kapitalanlagen hat. Weiterlesen