Die große Risikoverwirrung Teil 8: Die Quantifizierung der Unsicherheit

by Karl-Heinz Thielmann on 5. September 2013

Co-Autorin: Prof. Dr. Ekaterina Svetlova

Der Brauch hat sich in unserer Welt eingebürgert, dass nur derjenige Ernst genommen wird, der eine Behauptung mit Zahlen belegen kann. Wenn Zahlen vorhanden sind, gehen Menschen relativ unkritisch damit um und hinterfragen nur äußerst selten, wie die präsentierten Werte zustande gekommen sind.

Die beste Illustration hierfür ist das Verhalten von Banken und Ratingagenturen vor und während der Wirtschaftskrise 2008. Wir würden in unserer Argumentation auch so weit gehen zu behaupten, dass dies auch eine der Ursachen der Krise war und entscheidend zu ihrer Eskalation beigetragen hat. Mit anderen Worten hat eine andauernde Risikoverwirrung eine dramatische Relevanz für das Wirtschaftsgeschehen.

Vor der Finanzkrise hatten viele Kreditverkäufer, Investment Banker, Fondsmanager und Privatanleger nicht realisiert, dass sie sich nicht in einer Situation mit kalkulierbaren Risiken, sondern in der Situation einer genuinen Unsicherheit befanden. Dementsprechend haben sie sich verhalten, als ob sie in einer Risikosituation wären: Sie haben Risiken kalkuliert und sich dabei auf die Modelle verlassen, die angeblich eine Quantifizierung der Risiken ermöglichen (zum Beispiel Ausfallrisikomodelle der Ratingagenturen oder Value at Risk, die wir in den Teilen 1 und 2 unserer Reihe besprochen haben). Die Ergebnisse dieser Modelle basieren auf den Wahrscheinlichkeitsverteilungen, die aus der Geschichte als bekannt angenommen wurden. Grundsätzlich ging man bei der Bestimmung der für die Risikokalkulation notwendigen Parameter von der Einheitlichkeit der Vergangenheit und Zukunft aus. Da aber die Wirtschaftssituation vor und während der Krise eine ganz spezifische war, also eine Unsicherheitssituation eben, war das sich verlassen auf die einheitliche Wiederholung der Vergangenheit fatal.

Dies führte zu der Fehlkalkulation der Risiken, genauer gesagt, zu einer Unterschätzung der Risiken weltweit, die z. B. der damalige Federal Reserve Chairman Alan Greenspan als die zentrale Ursache der Wirtschaftskrise benannt hat. Die Unterschätzung von Risiken führte zu einer erhöhten Nachfrage nach den riskanten Anlagen; immer mehr von diesen wurden produziert und gekauft. Mit anderen Worten, obwohl die handelnden Personen sich in der Situation einer Unsicherheit fanden, behandelten sie diese als eine Risikosituation mit perfekt bekannten möglichen Weltzuständen und Wahrscheinlichkeitsverteilungen. Ihre Entscheidungen setzten unberechtigterweise einen hohen Grad der Vorhersagbarkeit voraus, was zu fatalen Folgen geführt hat.

Die Risikounterschätzung während der Wirtschaftskrise bezog sich primär auf die Berechnung der Ausfallrisiken für die neuen Finanzinstrumente wie ABS (asset backed securities), CDO (collateral debt obligations) and CDS (credit default swaps). Diese Produkte beinhalten Tranchen mit niedrigem, mittelmäßigem und hohem Risiko. Für alle Tranchen wurde das Ausfallrisiko eingeschätzt. Obwohl die Zukunft prinzipiell unsicher ist, hatten Finanzinstitute sowie Ratingagenturen bei der Risikoeinschätzung keine Unsicherheitselemente eingebaut. Ihre Risikomodelle beruhten auf der Annahme, dass Risiken der prinzipiell bekannten zukünftigen Ereignisse berechnet werden können und dass man sich auf die entsprechenden Wahrscheinlichkeiten verlassen kann. So schrieben 2003 die Analysten Peter Crosbie und Jeff Bohn von Moody‘s/KMV in einer Darstellung ihrer Methodik:

„Das Ausfallrisiko ist die Unsicherheit, die über die Fähigkeit eines Unternehmens besteht, seinen finanziellen Verpflichtungen nachzukommen. Vor einem Ausfall gibt es keinen eindeutigen Weg zu unterscheiden, ob Firmen zahlungsunfähig werden oder nicht. Das Beste, was wir machen können ist, die Möglichkeit eines Ausfalls durch eine Wahrscheinlichkeit zu bewerten.“ [“Default risk is the uncertainty surrounding a firm’s ability to service its debts and obligations. Prior to default, there is no way to discriminate unambiguously between firms that will default and those that won’t. At best we can only make probabilistic assessments of the likelihood of default.”]

Es ist interessant, dass das Kreditratingunternehmen die Unsicherheit als Element der einzuschätzenden Situation in diesem Fall eingesteht, dann aber daraus schlussfolgert, dass man sich auf Wahrscheinlichkeiten verlassen muss. Die Zuordnung von Wahrscheinlichkeiten wurde als einziger möglicher Weg angesehen, mit der Situation umzugehen. Diese Verwechslung von Risiko und Unsicherheit war typisch und führte in der Konsequenz zu der Unterschätzung der Ausfallrisiken der Tranchen und der Produkte.

Zur Bestimmung der Ausfallrisiken wurden in den Risikomodellen vorwiegend Häufigkeitswahrscheinlichkeiten benutzt. Diese beruhten aber auf den historischen Daten und machten deswegen laut Knight und Keynes in den einmaligen unsicheren Wirtschaftssituationen besonders wenig Sinn. Auf die innovativen Finanzinstrumente bezogen bestand zudem das Problem darin, dass diese Finanzinstrumente so gut wie keine Kurshistorie hatten.
Neben den Wahrscheinlichkeiten war ein anderer wichtiger Parameter der Risikomodelle die Korrelation zwischen den Bestandteilen in den Tranchen. Die Kalkulationen von diesen Korrelationen basierten auf der Annahme, dass sie über die Zeit stabil bleiben. Mögliche Unvorhersagbarkeiten wurden schlicht und einfach nicht berücksichtigt. (“…made no allowance for unpredictability”, wie Felix Salmon 2009 in seiner Analyse “Recipe for Disaster: The Formula That Killed Wall Street” schrieb). Das bedeutet, dass wenn die Korrelationen in der Vergangenheit niedrig waren, wurden sie auch in den Zeiten, in denen sie sich erhöht hatten, als zu niedrig eingeschätzt. Dies führte zu der Unterschätzung der Verbindung von Risiken.

Ein anderes gutes Beispiel ist das Value at Risk (VaR) -Modell, das oft für die Einschätzung der Risiken von Portfolios mit strukturierten Produkten eingesetzt wurde. Erstens basiert die Risikoeinschätzung nach diesem Modell meistens auf einer als normal angenommenen Wahrscheinlichkeitsverteilung, sodass genau die gleiche Problematik wie bei den Kalkulationen des Ausfallrisikos gilt. Zweitens ist speziell die Berücksichtigung von Liquidität problematisch. Das Standard VaR-Modell berücksichtigt sie überhaupt nicht. Schon vor der Finanzkrise gab es einige Versuche, Liquidität einzubeziehen, was aber nicht unbedingt Erkenntniszuwächse brachte, da jetzt auch Liquidität auf der Basis der Historie eingeschätzt werden musste. Diese war aber noch unregelmäßiger als bei den Kursen und und Daten insbesondere bei strukturierten Finanzprodukten nur sehr kurz verfügbar. Dass Liquidität auch von strukturellen Faktoren – wie z. B. Tradinglimits bei Wertpapierhändlern abhängig – war, die sich kurzfristig schnell ändern können und sich auch nicht eindeutig quantifizieren lassen, erschwerte die Einbeziehung von Liquidität zusätzlich.

Jane Croft stellte 2009 in der Financial Times fest:

„Illiquide Finanzprodukte in VaR einzubeziehen, das auf kurzfristige Kursschwankungen abzielt, ist nicht aussagekräftig, wenn man langfristig gebunden ist und möglicherweise durch große Kursausschläge getroffen wird. VaR unterschätzt das Risiko.“ [“Putting really illiquid products into VaR, where you are looking at short-term moves in prices, is not appropriate because you will be locked in for a longer period and potentially suffer larger price moves. VaR will understate risk.”]

Es ist offensichtlich, dass insbesondere in Hinblick auf Liquidität von strukturierten Produkten vor der Finanzkrise eine große Unsicherheit vorherrschte. Diese wurde aber wie eine Risikosituation behandelt, quasi „mit Gewalt“ quantifiziert. Dies führte zu groben Fehleinschätzungen. Die Finanzkrise eskalierte u.a. auch deshalb, weil vielen Verantwortlichen die Diskrepanzen zwischen aus der Vergangenheit abgeleiteten Annahmen und tatsächlichen Ereignissen nicht bewusst waren. Als sich ihre Anlagen nicht als so risikofrei herausstellten, wie die Berechnungen es nahelegten, stürzten ihre Anlagekonzepte wie Kartenhäuser zusammen.

Allerdings führte diese Erfahrung seitdem erstaunlicherweise nur bei einer Minderheit zum Überdenken der Einstellung gegenüber der „Risiko-Unsicherheit“-Problematik. Risikomodelle, welche die Zukunft quantifizieren, werden weiterhin angewandt, obwohl deren Probleme bekannt sind. Der Einsatz von VaR ist nach wie vor gängige Praxis im Risikomanagement. Wenn überhaupt, wird nach besseren Modellen gesucht, die z. B. Finanzmarktschocks anders modellieren. So wird zum Beispiel derzeit in der Fachpresse das MVaR als der große Durchbruch in der Risikomessung gefeiert. Aber auch dieser neue Ansatz ist letztlich nichts anderes als der Versuch einer Quantifizierung der Unsicherheit, der allerdings Extremereignisse stärker einbezieht als das ursprüngliche VaR-Modell. Aber auch durch MVaR wird eine Kontrollillusion für Unsicherheit aufrechterhalten, die allerdings restriktiver ist als im ursprünglichen Ansatz. Die nächsten systematischen Fehleinschätzungen scheinen vorprogrammiert. Auch gibt es nach wie vor keinen allgemein akzeptierten Ansatz zur quantitativen Erfassung von Liquiditätsrisiken. Angesichts der Abhängigkeit der Liquidität von strukturellen und institutionellen Voraussetzungen wird es diesen wohlmöglich auch niemals geben.

Wenn endlich eingesehen wird, dass man sich in der Wirtschaft und speziell an Finanzmärkten tagtäglich in der Situation einer genuinen Unsicherheit befindet, d. h. in der Situation, wo imperfektes Wissen, Einmaligkeit und Überraschungen das Geschehen bestimmen, sollte die Einstellung zu den vorherrschenden Risikomodellen grundsätzlich überdacht werden.

Die vorherige Folge mit dem Thema: “Unsicherheit als Ausrede” erschien am 29.8.2013 in blickog.com.

Die Reihe: „Die große Risikoverwirrung“ basiert auf einer Artiklelserie, die in „Mit ruhiger Hand“ zwischen Mai und Juli 2013 erschienen ist. Sie wurde für „blicklog“ noch einmal überarbeitet. Die Orginaltexte stehen in einer Sonderausgabe als Download zur Verfügung. Zu diesem Thema haben beide Autoren auch in der Reihe „Karlsdialoge“ ein Gespräch mit Patrick Breitenbach geführt, das als Podcast zum Download zur Verfügung steht.

Quellen: Croft, J. (2009), ‘Modeling adapts as catastrophic clouds clear’, Financial Times, 21, 5 October; Grosby, P. and J. Bohn (2003), Modeling Default Risk, San Francisco: KMV; Knight, F.H. (1921), Risk, Uncertainty and Profit, Mineola, NY: Dover Publ.; Salmon, F. (2009), ‘Recipe for disaster: the formula that killed Wall Street’, Wired, 24 September 2009, available at: http://www.wired.com/techbiz/it/magazine/17-03/wp_quant?currentPage=all; Skidelsky, R. (2009), Keynes: The Return of the Master, London: Penguin; Svetlova, E. and Fiedler, M. (2011): Understanding Crisis: On the Meaning of Uncertainty and Probability. In: Asenjo, O. and Marcuzzo, C. (eds.): The Recession 2008. Competing explanations. Camberley, UK: Edward Elgar publishing, 42-62.

Comments on this entry are closed.

{ 1 trackback }

Previous post:

Next post: