Suchen

Wie Machine Learning bei Preisfindung und Risikoeinschätzung hilft Das Bewertungsproblem bei non-bankable Assets

Autor / Redakteur: Gery Zollinger / Peter Schmitz
Machine-Learning-Algorithmen und neuronale Netze sind zwar kein Ersatz für Expertenwissen bei non-bankable Assets, sie können Anlegern aber mehr Unabhängigkeit verschaffen.
Machine-Learning-Algorithmen und neuronale Netze sind zwar kein Ersatz für Expertenwissen bei non-bankable Assets, sie können Anlegern aber mehr Unabhängigkeit verschaffen.
(Bild: gemeinfrei / Pixabay )

Ein Großteil der auf der Welt existierenden Vermögenswerte ist derzeit noch gar nicht handelbar. Durch Distributed-Ledger-Technologie wird sich dies ändern. Digitale Security Tokens erschließen die Welt der non-bankable Assets – von Kunstwerken über die Oldtimersammlung bis zu Immobilienanteilen. Banken und Wealth Manager stehen allerdings vor der Herausforderung, den Preis der neuen Assets einzuschätzen und deren Risiko zu bewerten. Moderne Machine-Learning-Algorithmen können dazu einen wichtigen, wenngleich nicht erschöpfenden Beitrag leisten.

Nicht liquide Vermögenswerte besonderer Natur

Bankfähige Vermögenswerte sind Sicherheiten, die Banken verwenden, um die Rückzahlung eines Kredits zu garantieren. Nicht bankfähige Vermögenswerte sind dagegen oft nicht liquide Vermögenswerte besonderer Natur. Zu diesen non-bankable Assets können ebenso Direktinvestitionen in Eigenmittel von Unternehmen gehören wie der Kauf oder der Miterwerb von Haupt- oder Zweitwohnsitzen, von Kunstwerken oder anderen seltenen Sammelobjekten. Schon weil dabei frühere Transaktionsdaten fehlen, ist es inhärent komplex, eine Risiko-/Rendite-Bewertung vorzunehmen. Auch deswegen schließen es die meisten Finanzinstitute aus, diese Vermögenswerte als Garantie für einen Kredit zu verwenden.

Demokratisierung, Risikodiversifizierung und Nutzungsrechte

Distributed-Ledger-Technologie und tokenisierte non-bankable Assets werden dies ändern – und dabei die Demokratisierung des Wealth Managements vorantreiben. Banken können Tokens in so kleinen Stückelungen ausgeben, dass sie für kleinere Anleger attraktiv werden, von Mass Affluent Clients bis zum Retailmarkt. Ein weiterer wichtiger Vorteil liegt in der Diversifizierungswirkung. Bei Portfolios aus risikoreichen Finanzanlagen in hoch korrelierten Volkswirtschaften ist es immer kostspieliger und komplizierter geworden, sich gegen systemische Risiken abzusichern. Zudem erhalten Investoren durch Tokens gegebenenfalls nicht nur Anteile an dem Wert eines Assets: Ebenso wie in ein Miteigentum könnten Anleger in ein Mitnutzungsrecht investieren. So sind etwa bei Kunst- und Oldtimersammlungen ebenso Property Token wie Experience Token denkbar.

Das Problem der Wertbestimmung

Eine der größten Herausforderungen im Kontext von non-bankable Assets liegt darin, tragfähige Bewertungsansätze für eine verlässliche Einschätzung des aktuellen Preises zu finden. Dass viele non-bankable Assets – ob Immobilen oder Sammlerstücke – nur selten auf dem Markt sind und es nur wenige historische Daten gibt, erschwert die Wertbestimmung. Eine zweite große Aufgabe, die sich beim operativen Umgang mit non-bankable Assets im Investmentkontext stellt, ist es, die mittel- und langfristige Spannbreite der Asset-Werte zu bestimmen.

CAPM und Arbitrage Pricing Theory

Einer der einfachsten Bewertungsansätze ist das Capital Asset Pricing Model (CAPM). Es setzt die erwartete Rendite des Wertpapiers auf einfachste Weise mit dem (systematischen) Marktrisiko in Beziehung – mithilfe eines hypothetischen Marktportfolios. In der Praxis wird dieses Marktportfolio durch Indices wie den SnP500 für den US-Aktienmarkt oder den DAX für den deutschen Markt repräsentiert. Weil das Modell aber von starken Annahmen über den Markt und seine Teilnehmer ausgeht – es setzt etwa voraus, dass die Informationen regelmäßig und beständig zwischen den Teilnehmern fließen –, birgt es Gefahren. Diese Beobachtung führte 1976 zu der flexibleren und leistungsfähigeren Arbitrage Pricing Theory (APT). In gewissem Sinn verallgemeinert die APT-Preisformel das CAPM zu einem multilinearen Regressionsmodell. So besagt die APT auch, dass sich Asset-Preise auf Basis einer linearen Beziehung vorhersagen lassen: der zwischen den erwarteten Renditen auf die Assets und einigen wenigen makroökonomischen Variablen.

Vom Asset Pricing zum Machine Learning

APT und CAPM gehen beide von linearen Beziehungen zwischen den Prädiktoren (Faktorrenditen) und der Zielvariablen (Kapitalrendite oder Asset-Preis) aus. Ein fälschlich lineares Modell führt in der Vermögensverwaltung aber zu hohen Betriebs- und Portfoliorisiken – für die Bank und den Investor. Hier stattdessen ein flexibleres Machine-Learning-Modell zu nutzen, kann die Risikoexposition deutlich mindern. Die folgenden validen Kandidaten kommen schon seit Jahren im Vermögens- und Portfoliomanagement zum Einsatz:

  • Logistische Regression – hauptsächlich zur Klassifizierung.
  • Polynomiale Regression – eine Form der linearen Regression, bei der Beiträge von Prädiktoren höherer Ordnung erlaubt sind; typischerweise Varianz, Schiefe und Exzess von Vermögensrenditen.
  • Nicht-lineare Regression – eine Verallgemeinerung der polynomialen Regression, bei der eine nicht-lineare Funktion spezifiziert wird und zur Modellierung der Abhängigkeit zwischen Prädiktoren und dem Zielwert dient.
  • Ridge- und Lasso-Regressionen – bestrafte lineare Regressionsmodelle, die häufig verwendet werden, um die Estimatoren für Risiko und Rendite zu stabilisieren und so ein kostspieliges Portfolio-Turnover besser zu kontrollieren.
  • Künstliche neuronale Netze (KNN) – die praktisch jede Art von spezifizierter oder nicht spezifizierter Abhängigkeit zwischen Prädiktoren und einer Zielvariablen erfassen können; vorausgesetzt, es stehen genügend Daten zur Verfügung, um das Modell zu trainieren. Die breite Kategorie der KNN-Modelle umfasst insbesondere Feedforward- und rekurrierende neuronale Netze (RNN), die im Finanzsektor hauptsächlich dazu dienen, komplexe Regressions- und Zeitreihenvorhersage-Probleme wie etwa Intraday-Transaktionen und Market Making zu lösen.

Hedonische Preisbildungsmodelle

Sogenannte hedonische Preisbildungsmodelle werden etwa für Immobilien benutzt. Dabei wird der Vermögenswert durch eine spezifische Mischung von sowohl intrinsischen als auch lokalen Merkmalen beeinflusst. Für solche Schätzungen nutzt man oft nichtlineare Regression. Denn Immobilien haben leicht messbare inhärente Merkmale – wie Baujahr, Zimmerzahl, Wohnfläche, Ausstattung usw. Der Immobilienwert hängt auch von geografischen Merkmalen wie Standortattraktivität oder regionalen Lebenshaltungskosten ab. Ein vollständiges hedonisches Modell aufzubauen, ist aber mit hohen Datenanforderungen verbunden, von der Aktualisierung der Daten ganz zu schweigen. Damit lässt sich ein Vollzeitteam mit einem hohen Maß an Fachwissen in Sachen Immobilienbewertung auslasten – dasselbe gilt für alle nicht bankfähigen Vermögenswerte. Ein Bewertungsmodell für non-bankable Assets zu definieren und anzuwenden, ist eine gewaltige Aufgabe, die weit vom Kerngeschäft traditioneller Finanzintermediäre wie Banken, Family Offices und Vermögensverwalter entfernt ist. Dennoch: In einem weitgehend deregulierten Markt wie dem der non-bankable Assets sollten sich Portfoliomanager eine gewisse Unabhängigkeit von externen Dienstleistern und Marktmachern bewahren. Machine Learning kann dazu einen wichtigen Beitrag leisten – auch wenn es das Expertenwissen nie vollständig ersetzt.

Machine-Learning-Algorithmen zur hedonischen Preisbildung

Der hedonische Preis einer Immobilie ist eine Funktion ihrer inneren und äußeren Eigenschaften, die ihren Wert beeinflussen. Deswegen lässt sich der hedonische Bewertungsansatz auch leicht auf andere non-bankable Assets übertragen, ob Oldtimer, Kunstwerke oder andere wertvolle Sammlerstücke. Traditionell wird der hedonische Preis P geschätzt, indem man die erwähnten Machine-Learning-Algorithmen in der Reihenfolge ihrer Komplexität ausprobiert: Zunächst verwendet man lineare und polynomiale Regressionen und, falls erforderlich, allgemeine nichtlineare Regressionen.

Neuronale Netze versus hedonische Regression

Einige Veröffentlichungen der letzten Zeit haben verglichen, wie leistungsfähig künstliche neuronale Netze (KNN) einerseits und die traditionelle hedonische Regression andererseits sind, wenn es darum geht, die Transaktionspreise von Immobilien vorherzusagen. Eine peer-reviewte und inzwischen häufig zitierte Studie hat den Vergleich anhand der Verkaufspreise von Häusern in der Türkei angestellt. Sie kam zu dem Schluss, dass in diesem spezifischen Anwendungsfall die Vorhersagekraft künstlicher neuronaler Netze der allgemeinen hedonischen Regression ebenbürtig, wenn nicht sogar überlegen ist.

Vorhersagefehler bei der Bestimmung von Immobilienverkaufspreisen. (Datenquelle: Selim, Hasan. (2009). Determinants of house prices in Turkey.
Vorhersagefehler bei der Bestimmung von Immobilienverkaufspreisen. (Datenquelle: Selim, Hasan. (2009). Determinants of house prices in Turkey.
(Bild: Avaloq)

Rekurrente neuronale Netze eignen sich ideal

Gegenüber traditioneller hedonischer Regression sind KNNs weit flexibler. Bei ihnen ist es unnötig, irgendeine Form der funktionalen Abhängigkeit zwischen den Prädiktoren (Asset-Eigenschaften) und dem Ziel (Asset-Preise) zu spezifizieren. Das neuronale Netzwerk kann stattdessen die optimale Preisfunktion lernen – diejenige, die den Schätzfehler minimiert. Dazu müssen über den Vermögensgegenstand und seine Umgebung genügend Daten verfügbar sein. Gegenüber vielen ökonometrischen Zeitreihen und anderen Machine-Learning-Modellen haben KNNs und besonders rekurrente neuronale Netze (RNNs) einen weiteren wichtigen Mehrwert. So können beispielsweise RNNs des Typs Long Short-Term Memory (LSTM) auch unregelmäßige und verstreute Daten, die nicht in einer bestimmten Frequenz anfallen, berücksichtigen.

Tokenisierte non-bankable Assets sind die Zukunft

Spezifisches Expertenwissen im Feld der jeweiligen non-bankable Assets bleibt dennoch unverzichtbar. Machine-Learning-Algorithmen und neuronale Netze sind kein valider Ersatz dafür. Allerdings können sie Finanzintermediären und Anlegern mehr Unabhängigkeit und Einsicht im Bereich nicht bankfähiger Vermögenswerte verschaffen. Sich jetzt mit tokenisierten non-bankable Assets zu beschäftigen, lohnt in jedem Fall: Ihnen gehört die Zukunft.

Über den Autor: Gery Zollinger ist Head of Data Science & Analytics bei Avaloq. Er verfügt über mehr als acht Jahre Erfahrung im Bereich Analytics und quantitative Modellierung. Bevor er 2019 zu Avaloq stieß, arbeitete er bei Credit Suisse im globalen Credit Risk Analytics Team und war für die Kreditrisikomodellierung innerhalb der Sparten Private und Investment Banking verantwortlich. Zudem hat er dort ein globales Data Scientist Team im Bereich Compliance Analytics aufgebaut und geleitet. Gery Zollinger verfügt über Abschlüsse in Wirtschaft & Statistik der Universität Zürich (Schweiz), der Universität Lausanne (Schweiz) und der NHH Bergen (Norwegen) sowie einen Abschluss in Informatik der ETH Zürich (Schweiz).

(ID:46959892)