Die große Risikoverwirrung Teil 4: Risikofaktor Risikomanagement

by Karl-Heinz Thielmann on 13. August 2013

Co-Autorin: Prof. Dr. Ekaterina Svetlova

Risikomanagement ist die systematische Erfassung und Bewertung von Risiken inklusive der Steuerung von Reaktionen auf festgestellte Risiken. Es wird innerhalb eines Unternehmens meist von spezialisierten Mitarbeitern durchgeführt und erfreut sich nicht erst seit der Finanzkrise 2008 wachsender Bedeutung. Gesetzliche und bankaufsichtsrechtliche Vorschriften haben seit den 90er Jahren dafür gesorgt, dass der Einfluss von Risikomanagement insbesondere bei Finanzunternehmen schrittweise zunahm. Die Finanzkrise hat dann weiterhin dazu geführt, dass dessen Notwendigkeit auch zunehmend intern akzeptiert wurde.

Allerdings haben Risiko-Manager speziell im Finanzbereich praktisch eine unmögliche Aufgabe. Einerseits müssen ihre Auftraggeber Geld verdienen, und das können sie nur, indem sie Risiken eingehen. Andererseits ist es Aufgabe des Risikomanagers, ebendiese Risiken zu begrenzen oder einzuschränken. Damit verursacht er Kosten oder verhindert sogar Geschäfte, was operativ tätige Manager meist ziemlich ärgert. Auch kann die Tendenz zur Geschäftsverhinderung gefährliche volkswirtschaftliche Konsequenzen haben, wie die derzeitige Diskussion um den „Credit Crunch“ zeigt. Banken, die zu wenig Kredite vergeben, behindern den Aufschwung der Wirtschaft.

Im Vergleich mit anderen Branchen ist der angesprochene Interessenkonflikt im Finanzbereich viel schwerwiegender, da die Risiken oftmals abstrakter sind und auch in weiter Zukunft liegen können. Insbesondere ist Risikomanagement schwierig, wenn es um komplexe Finanzprodukten geht. Bei ihnen ist das Erkennen und Bewerten von Risiken erheblich erschwert. Darüber hinaus stellt gerade die Komplexität eine Verführung dar, Risiken zu verstecken bzw. an Ahnungslose weiterzureichen. Da heutzutage durch die Verbindung von Leistungsanreizen mit Umsatzzielen vor allem der kurzfristige Erfolg belohnt wird, besteht ein erheblicher Anreiz für Finanzanbieter, Produkte mit intransparenten Risiken zu vermarkten.

Erfahrungsgemäß steigt auch der Druck auf Risikomanager, eine vorsichtige Haltung aufzugeben, wenn Konkurrenten risikofreudiger sind und aggressiv den Markt aufrollen. Es gibt daher eine Grundtendenz zum prozyklischen Verhalten beim Risikomanagement, die auch vor der letzten Finanzkrise besonders deutlich geworden war: Gerade zwischen 2004 und 2007 ist von einigen Banken bekannt, dass sie ihre Risikoregeln gelockert hatten. Darüber hinaus stehen Risikomanager im besonderen Fokus der Aufsichtsbehörden. Ihre Aufgabe ist es auch, durch die Ablieferung von Daten und die Umsetzung von Vorschriften als Erfüllungsgehilfen staatlicher Regulierung zu dienen, ohne aber selbst beeinflussen zu können, was in welcher Form reguliert wird.

Wenn es gut läuft, ist der Risikomanager ein Erfolgsverhinderer und Spaßbremse, wenn es schlecht läuft, hatte er vorher nicht eindrücklich genug gewarnt. Da nun Risikomanager ein Beruf ist, indem man grundsätzlich Schuld hat, egal was passiert, so ist es um so verständlicher, wenn man sich gerne auf möglichst formale Regeln zu Risikokontrolle zurückzieht. Dies erklärt die besondere Beliebtheit von mathematischen Modellen, darauf aufbauenden Risikostrategien sowie die Bürokratisierung und sklavische Befolgung von regulatorischen Regeln beim Risikomanagement. Man beschneidet sich zwar selbst die Ermessensspielräume, kann sich damit aber Zweifelsfall durch Rückgriff auf „objektivierbare“ Zahlen bzw. Vorschriften rechtfertigen.

So kritisierte vor Kurzem eine parlamentarische Untersuchungskommission in Großbritannien, die den Zusammenbruch der Bank HBOS 2008 untersuchte, dass das Risikomanagement in dieser Bank sehr stark auf formale Abläufe ausgerichtet war, aber zu wenig auf die inhaltliche Prüfung und Bewertung von Risiken. Genau diese Formalisierung wird aber durch eine ansteigende Regulierung mit immer weiter ausufernden Reporting-Anforderungen durch die Aufsichtsbehörden bewirkt.

Die Tendenz zur Formalisierung des Risikomanagements und einer damit einhergehenden zunehmenden Betriebsblindheit gegenüber der Entstehung von neuen, bisher unbekannten Problemen hat Michael Powers von der London School of Economics in mehreren Analysen untersucht. Er hat in seinen Arbeiten gezeigt, wie insbesondere die immer stärkeren formalen Anforderungen an das Risikomanagement dazu führen, dass es eine Art „Quantifizierungszwang“ gibt. Unsichere Ereignisse, für die sich sinnvoll keine Eintrittswahrscheinlichkeit bestimmen lässt, werden dann doch wieder in einen mathematischen Rahmen gepresst und erscheinen dann fälschlicherweise als messbar und damit auch kontrollierbar.

Aber nicht nur der permanente Rechtfertigungsdruck verleitet Risikomanager zum Rückzug auf scheinpräzise Zahlen. Es gibt in der modernen Gesellschaft eine grundsätzliche Tendenz, komplexe Sachverhalte stark zu simplifizieren und auf griffige Schlüsselbegriffe oder Kennzahlen zu reduzieren. Top-Manager oder auch Vermögensverwaltungskunden lieben es nicht, wenn man sie mit komplizierten Erläuterungen quält. Übersichtliche Entscheidungsvorlagen sind gefragt; klare Antworten müssen selbst auf Fragen gegeben werden, für die es keine eindeutige Lösungen gibt.

Mathematische Risikokennzahlen und auf ihnen aufbauende Absicherungsstrategien entsprechen diesem Bedürfnis. Am besten wird das Ganze noch mit englischen Fachwörtern tituliert, damit sich alles schön professionell anhört. Und so hat merkwürdigerweise das Versagen von mathematischen Ansätzen während der Finanzkrise zu einer eigenartigen Blüte von neuen scheinpräzisen Strategien im Risikomanagement geführt, die unter Namen wie “Constant Proportion Portfolio Insurance”, „Capital Protection Strategies“, „Complex Dynamic Insurance Strategies“ oder „Dynamic Strategy Systems“ vermarktet werden. Aber alle diese Strategien werden das Schicksal ihrer Vorgänger teilen: Sie funktionieren nur solange, wie die eingehenden Annahmen stimmen. Und die können sich bei wechselnden Marktverhältnissen teilweise recht schnell grundlegend ändern.

Weil es sich mit den üblichen quantitativen Konzepten nicht fassen lässt, gehört das Liquiditätsrisiko beim Risikomanagement von Kapitalanlagen nach wie vor zu den am meisten unterschätzten Risiken. Dabei hat es sich zum Beispiel im Bereich der offenen Immobilienfonds zu einem regelrechten Fonds-Killer entwickelt, weil diese vielfach aufgrund von Mittelabflüssen Zwangsverkäufe zu schlechten Konditionen durchführen mussten, welche die Performance ruiniert haben und wiederum weitere Mittelabflüsse auslösten. Auch die bisher spektakulärste Fondspleite des Hedgefonds LTCM in 1998 ist letztlich durch die plötzliche Illiquidität vieler Anlagen entscheidend verschärft worden.

Gerade in Hinblick auf das Liquiditätsrisiko zeigt sich die grundsätzliche Problematik des Widerspruchs zwischen kurzfristigem Erfolgsdruck und der Abschätzung langfristiger, relativ abstrakter Risiken besonders deutlich. Die Performance von Vermögensverwaltern wird ständig gemessen. Kunden orientieren sich zumeist an denjenigen, die kurzfristig die besten Wertentwicklungszahlen produzieren. Dabei ist es für sie relativ unerheblich, ob der Anlageerfolg des Investmentmanagers auf Zufall, Können oder dem Eingehen hoher Risiken beruht. Für Portfoliomanager, die in den Rankings zurückfallen, steigt der Druck, ihre Performance durch das Eingehen riskanterer Engagements zu verbessern. Die Fixierung der Risikokontrolle auf Kennzahlen, die auf der Basis von Volatilitäten errechnet werden, erleichtert dabei das versteckte Eingehen von Risiken. So erscheinen illiquide Aktien aufgrund ihres geringen Handels oft als weniger volatil und damit auch als nicht so riskant wie viel gehandelte Aktien. Sie sind i.d.R. auch weniger stark mit anderen Aktien korreliert, womit sie scheinbar die Risikostreuung verbessern. Für den einen oder anderen Fondsmanager mag es auch die Verführung geben, die Beeinflussbarkeit der Kurse von illiquiden Aktien zur Verbesserung der eigenen Performance zu nutzten. Im Fall eine Fehleinschätzung sind aber genau diese illiquiden Aktien aufgrund der geringen Umsätze kaum noch verkäuflich und belasten dann dauerhaft als sog. „Depotleichen“ die Wertentwicklung.

Das Liquiditätsrisiko wird aber auch deshalb oft vernachlässigt, weil bei ihm die Geschäftsverhinderung relativ offensichtlich ist. Die einfachste Form des Risikomanagements – Liquidität halten oder in sehr liquide Anlagen investieren – kostet Performance und damit Kunden. Solange die Kunden von Anlagemanagern nicht unterscheiden, ob die Wertentwicklung ihrer Anlagen auf dem Eingehen hoher Risiken oder auf dem Können des Vermögensverwalters beruht, führt ein Versuch der Begrenzung von Risiken automatisch zu kommerziellen Problemen für ein Finanzprodukt. Risikomanagement wird dann zur Farce.

Die vorherige Folge mit dem Thema: “Kann man Risiko überhaupt zuverlässig einschätzen?” erschien am 8.8.2013 in blickog.com.

Die Reihe: „Die große Risikoverwirrung“ basiert auf einer Artiklelserie, die in „Mit ruhiger Hand“ zwischen Mai und Juli 2013 erschienen ist. Sie wurde für „blicklog“ noch einmal überarbeitet. Die Orginaltexte stehen in einer Sonderausgabe als Download zur Verfügung.Zu diesem Thema haben beide Autoren auch in der Reihe „Karlsdialoge“ ein Gespräch mit Patrick Breitenbach geführt, das als Podcast zum Download zur Verfügung steht.

Zur grundsätzlichen Problematik der übermäßigen Komplexitätsreduktion vgl. Dirk Elsner: Das Dilemma des Komple-xitätsreduktionismus in der Wirtschaftspraxis (Teil 1: http://www.blicklog.com/2013/05/22/blick-log-retro-das-dilemma-des-komplexittsreduktionismus-in-der-wirtschaftspraxis-teil-1/#more-31984; Teil 2: http://www.blicklog.com/2013/05/24/blick-log-retro-das-dilemma-des-komplexittsreduktionismus-in-der-wirtschaftspraxis-teil-2-wie-umgehen-mit-komplexitt/). Zum Risikomanagement vgl. Michael Power: „Organized Uncertainty“, Oxford University Press New York 2009 und die Artikel auf der Website: http://www2.lse.ac.uk/accounting/facultyAndStaff/profiles/power.aspx. Zur Bürokratisierung des Risikomanagements vgl. Ellen Kelleher: Risk managers fear, in FTFM vom 8. April 2013
Zu HBOS vgl. http://www.parliament.uk/business/committees/committees-a-z/joint-select/professional-standards-in-the-banking-industry/news/an-accident-waiting-to-happen-the-failure-of-hbos/

Dietmar Gamm Januar 11, 2014 um 18:36 Uhr

Ein toller Beitrag, der mir auch noch genau an dem Tag, an dem Prokon wg. Liquiditätsproblem mit Pleite droht.
Ein Punkt, der mich berührt. Sie beschreiben die Situation als Dilemma: Wenn Business, dann auch Risiko. Wenn kein Risiko, dann auch kein Business. Solche Dilemmata sind in den allermeisten Fällen nicht real. Sie können allerdings nicht durch Regelkreisdenken sondern durch kreatives Denken aufgelöst werden. Insgesamt beobachte ich schon lange, dass im Risikomanagement a) ein Missverhältnis herrscht zwischen Methodik und Aufwand für Erhebung, Analyse, Bewertung einerseits und der Suche nach „smarten“ Ideen zur Risikobehandlung andererseits. Methoden konvergenter Kreativität können hier so manches vermeintliche Dilemma auflösen und neue Wege aufzeigen. So gelangen wir vom „Entweder – Oder“ zum „Sowohl – Als Auch“.
Ein kleiner Aufsatz zum Thema kann hier heruntergeladen werden:
http://www.solidcreativity.de/innovations-management/innovationskultur/risikomanagement-und-kreativitaet/

Wasi September 20, 2013 um 14:36 Uhr

Schöner Artikel!
Heut zutage muss das IT-Risikomanagement optimal im Unternehmen funktionieren. In vielen Unternehmen sind hier noch starke Lücken vorhanden.
Doch das bessert sich immer mehr. Das Bewusstsein für IT-Gefahren in Unternehmen hat in den letzten Jahren stark zugenommen. In erster Linie liegt das daran, dass private und berufliche Elemente sich zunehmend vermischen – an vielen Stellen ist das gewollt, aber das schafft natürlich auch erhebliche Risiken. [Quelle: http://www.finance-magazin.de/risiko-it/risikomanagement/gutes-it-risikomanagement-ist-eine-herkulesaufgabe/ ]
Wichtig ist, dass die Unternehmensspitze den Ton angibt. Risikomanagement muss von jedem Mitarbeiter gelebt werden.
Gruß,
W.

Stefan Wehmeier August 13, 2013 um 14:44 Uhr

“Der Sparer erzeugt mehr Ware, als er selbst kauft, und der Überschuss wird von den Unternehmern mit dem Geld der Sparkassen gekauft und zu neuen Realkapitalien verarbeitet. Aber die Sparer geben das Geld nicht her ohne Zins, und die Unternehmer können keinen Zins bezahlen, wenn das, was sie bauen, nicht wenigstens den gleichen Zins einbringt, den die Sparer fordern. Wird aber eine Zeitlang an der Vermehrung der Häuser, Werkstätten, Schiffe usw. gearbeitet, so fällt naturgemäß der Zins dieser Dinge. Dann können die Unternehmer den von den Sparern geforderten Zins nicht zahlen. Das Geld bleibt in den Sparkassen liegen, und da gerade mit diesem Geld die Warenüberschüsse der Sparer gekauft werden, so fehlt für diese jetzt der Absatz, und die Preise gehen zurück. Die Krise ist da.”

Silvio Gesell, 1916

Weil der politischen Seifenoper jegliche Kompetenz fehlt, eine freiwirtschaftliche Geld- und Bodenreform praktisch durchzuführen, ohne dabei eine Katastrophe in der Katastrophe auszulösen, war der einzige Ausweg aus dem oben beschriebenen Dilemma, das bisher jede Volkswirtschaft in der Geschichte der halbwegs zivilisierten Menschheit zerstörte, der Krieg.

Doch eine umfassende Sachkapitalzerstörung, um den Zinsfuß anzuheben, konnte nur solange der Vater aller Dinge sein, wie es noch keine Atomwaffen gab:

http://opium-des-volkes.blogspot.de/2011/07/was-passiert-wenn-nichts-passiert.html

Comments on this entry are closed.

{ 1 trackback }

Previous post:

Next post: