Finanzmärkte in Emergenzen denken (III): Anwendung agenten-basierter Simulation

by Dirk Elsner on 19. November 2012

Im ersten Teil dieser dreiteiligen Reihe ging es darum Finanzmärkte und überhaupt die Ökonomie anders zu denken. Und zwar nicht in reduktionistischen linearen Modellen, sondern als komplexes Systeme mit emergenten Eigenschaften. Emergente Systeme, hatte ich mit David Brooks erklärt, liegen vor, wenn verschiedene Elemente in einem System zusammenkommen, das mehr ist als die Summe seiner einzelnen Elemente, weil sich die Elemente des Systems gegenseitig beeinflussen und aus ihrer Interaktion geht etwas völlig Neues hervor gehen kann.

Abbildung: A Repast dynamic social network simulation (Quelle: scidacreview)

Von da aus bin ich dann im zweiten Teil zu der agenten-basierten  Simulation gelangt. Mögliche künftige Zustände werden in solchen Modellen nicht mehr deterministisch aus einem formalen Modell abgeleitet, sondern aus Beobachtung simulierter Ergebnisse. Unter agentenbasierter Modellierung wird eine spezielle, individuen-basierte Methode der computergestützten Modellbildung und Simulation verstanden. Ein Vorteil agentenbasierter Modelle besteht darin, dass sie unterschiedlich agierende Marktteilnehmer enthalten und vor allem direkte Interaktionseffekte der Marktteilnehmer berücksichtigt werden können.

Im letzten Beitrag dieser dreiteiligen Reihe geht es um die Anwendung solcher Verfahren.

Ich kann mir gut vorstellen, dass einige Hedgefonds ganz scharf auf die Leute sind, die hier Know- how entwickeln, weil sie hoffen, die Märkte besser prognostizieren zu können. Ob das wirklich gelingen kann, bezweifele ich. Die Vorhersagen und das Handeln darauf beeinflussen ja die Märkte wiederum selbst und sorgen damit für winzige Abweichungen, die in komplexen Systemen sehr schnell zu großen Veränderungen führen können und damit wiederum nicht vorhersehbar sind. 

Vielleicht liegt hier auch eines der großen Missverständnisse dieser Verfahren. Agentenbasierte Simulationen dienen nicht dazu bestimmte Ergebnisse exakt vorherzusagen, sondern viel eher dazu, eine Einschätzung des Risikos zu bekommen. Daher werden solche Verfahren auch in den Risikoabteilungen großer Finanzinstitute eingesetzt.

Sinnvoll wären sie außerdem, um etwa die Folgen finanz- und fiskalpolitischer Maßnahmen einzuschätzen. Bei den großen wissenschaftlichen Forschungsinstituten scheint das Thema für Konjunkturprognosen oder gar für die Auswirkungen der derzeitigen europäischen Geld- und Fiskalpolitik aber bisher nur eine untergeordnete Rolle zu spielen (siehe Volkswirtschaftliche Prognosen: Fehlerquote hat zugenommen). Hans Christian Müller stellte in seinem Beitrag “Vorsprung durch Simulation” fest:

“Computersimulationen sind heute in vielen Natur- und Gesellschaftswissenschaften verbreitet, um drohendes Ungemach in einem System aufzuspüren. Nur eine Disziplin hat diese Methodik bisher größtenteils ignoriert: die Ökonomie. Hier sind noch immer abstrakte mathematische Modelle, die sich auf die gröbsten Funktionen einer Volkswirtschaft beschränken, das Maß aller Dinge. Schon vor Jahren warf der schwedische Wirtschaftswissenschaftler Axel Leijonhufvud seinen Kollegen daher vor, Modelle zu nutzen, "in denen schlaue Menschen in unglaublich einfachen Situationen handeln, während in der Realität einfach gestrickte Menschen mit einer unfassbar komplexen Welt zu kämpfen haben."

Immerhin hat man in der Europäischen Zentralbank 2011 einmal in einem Vortrag von J. Dyne Farmer davon etwas von agenten-basierter Simulation gehört. Ob sie solche Verfahren aber bereits anwendet und für die aktuelle Geldpolitik berücksichtigt, weiß ich nicht.

Nicole Walter erklärte vor ein paar Wochen in einem Artikel im Handelsblatt, dass die traditionellen Ökonomen mit exakt einem sogenannten "repräsentativen Agenten” arbeiten:

Er ist der Superman der Ökonomie. Intelligent, rational, vorausschauend. Völlig frei von Fehlern und ohne irgendwelche besonderen persönlichen Merkmale. …  Alle Menschen sind darin gleich und alle Unternehmen meist auch. Weiß man, wie ein Akteur denkt und handelt, kennt man die ganze Modellökonomie. Schließlich gibt es nur eine Art und Weise, sich vollkommen rational zu verhalten. Daher legen alle Supermänner exakt das gleiche Verhalten an den Tag.”

Wünschenswert wäre es in jedem Fall der ökonomische Forschung in diese Richtung mehr Aufmerksamkeit zu schenken und vielleicht mehr Forschungsgelder dorthin zu lenken (könnte auch etwas für private Stiftungen sein wie Bertelsmann oder INET). Immerhin stellte die Bertelsmann Stiftung in einer Untersuchung fest:

“Schon heute tragen Verhaltens- und Evolutionsökonomik, statistische Physik, die aufkommende Querschnittswissenschaft komplexer Systeme und neue agentenbasierte Modelle zum besseren Verständnis der globalen Wirtschaftsordnung bei. Die spannende Frage der kommenden Jahre wird sein, ob und wie sich die Ideen der Wissenschaftler auch in der Gestaltung der Finanz- und Wirtschaftspolitik niederschlagen und ob es gelingt, ein zukunftsfähiges globales Wirtschafts- und Gesellschaftsmodell zu entwickeln, das Risiken mindert, widerstandsfähig gegenüber Krisen ist und auch nachfolgenden Generationen die Möglichkeit gibt, ein erfülltes Leben auf unserem Planeten zu führen.”  Siehe: Jan Arpe, Holger Glockner, Helmut Hauschild, Thieß Petersen,  Andreas Schaich, Tim Volkmann, Die ökonomischen Risiken der Globalisierung”,

Die Experten auf diesem Forschungsgebiet mögen mir verzeihen, dass ich für diese Reihe nicht weiter in die Tiefe der ökonomischen Forschung einsteigen kann. Aber ist die Aufgabe der wissenschaftlichen Ökonomen und nicht meine. Immerhin setzten wir für die betriebswirtschaftliche Planungspraxis und Risikoanalyse schon länger Simulationen ein. Dabei arbeiten wir aber nicht mit Agenten, sondern simulieren zum Beispiel die Auswirkungen der Veränderungen verschiedener Werttreiber auf einen Businessplan. Das liefert übrigens sehr interessante Einblicke im Vergleich zu den meist üblichen eindimensionalen Businessplänen oder Projektplanungen.

Noch im Abseits einer breiteren öffentlichen Aufmerksamkeit forschen aber diverse Ökonomen an dem Thema, wie der schon im zweiten Teil erwähnte Bielefelder Professor Dawid, der dazu bereits einige Arbeitspapiere verfasst hat (siehe z.B. “Evolutionary game dynamics and the analysis of agent-based imitation models”). An der Universität Koblenz gab es eine Arbeitsgruppe “Methoden und Modellbildung” unter der Leitung von Herrn Prof. Klaus Troitzsch. Die meisten Papiere gibt es freilich in englischer Sprache dazu. Eine Google Suche etwa unter den Stichwort “agent based simulation economic” bringt über 30.000 Treffer.

Ich finde das Thema hoch interessant und werde es natürlich weiter im Auge behalten. Bis dahin hier noch ein paar weitere Literaturhinweise:

Abschließend will ich mich hier bei Johannes Tiemer bedanken, der in diesem Gebiet forscht, mir einige Literaturhinweise gegeben hat und den ich mit Fragen nerven durfte.

Ich freue mich natürliche über weitere Anregungen und gern auch Literaturhinweise in den Anmerkungen.

Mark Kirstein Mai 1, 2013 um 08:12 Uhr

Lieber Herr Elsner,

sie haben mit den 3 Beiträgen dieser Serie in der Tat ein sehr spannendes Forschungsfeld der Ökonomik aufgespießt und es lohnt sich, es weiter zu verfolgen! Als Reaktion auf Ina Vera Ast möchte ich auf eine fein nuancierte wissenschaftshistorische Einschätzung der folgenden beiden Papiere hinweisen

Colander, Holt, Rosser Jr. – „The changing face of mainstream economics“ Review of Political Economy 2004 http://www.tandfonline.com/doi/abs/10.1080/0953825042000256702#.UYC2w_LTAZE

und

Holt, Rosser Jr., Colander – „The Complexity Era in Economics“ Review of Political Economy 2011 http://www.tandfonline.com/doi/abs/10.1080/09538259.2011.583820#.UYC24vLTAZE

(gibt es sicher auch als frei verfügbare Arbeitspapierversionen …)

Die Autoren identifizieren darin das Komplexitätsparadigma als das neue Leitparadigma der nächsten Jahrzehnte in der Ökonomik. Weiter weisen sie auf einen grundlegenden Unterschied hin, wie dieser Methoden-/Paradigmenwechsel stattfinden wird. Entgegen der bekannten Auffassung von Thomas Kuhn, der in seiner Studie „Struktur wissenschaftlicher Revolutionen“ die umwälzenden Vorgänge in der Physik beschrieb, wird der Prozess des Wandels in der Ökonomik graduell verlaufen und ist bereits im Gange. Realistische Einschätzungen sollten demnach nicht auf revolutionäre Zustände warten oder gar hoffen, sondern es ist an der Zeit, diesen Prozess zu unterstützen und weiter voran zu treiben. Sie, Herr Elsner, tun dies durch die Wahl der Themen, die Sie besprechen, genau wie wir Wissenschaftler es durch die Wahl unserer Forschungsthemen zum Ausdruck bringen können.

Zum ewigen Prognosegerede möchte ich nur soviel anmerken; die Methode der agenten-basierten Simulation (ABS) und die ganze Komplexitätsperspektive entwickelt gerade in solchen Situationen ihren Reiz, in denen man sich zunächst einmal eingesteht, dass wir mit (im wissenschaftlichen Sinn) chaotischen, komplexen Wirkungszusammenhängen konfrontiert sind, die wir nur teilweise erkennen können. D. h. erst wenn man diese Haltung zu seinem Untersuchungsgegenstand einnimmt, wird es sinnvoll die ABS in Betracht zu ziehen. Setzt man einen repräsentativen Akteur voraus, der in einer noch relativ überschaubaren Umgebung simple Entscheidungen zu treffen hat, reicht ein deduktiver Ansatz aus. Die Kunst besteht nun vielmehr darin zu entscheiden, welchem Typ ein reales Phänomen, welches man beschreiben/erklären möchte, (eher) entspricht. Siehe dazu auch eine komplette Ausgabe der Proceedings of the National Academy of Sciences of the United States of America http://www.pnas.org/content/99/suppl.3.toc. Diese Vorteile erkauft man sich mit einer enorm gestiegenen Anzahl an Freiheitsgraden bei der Modellierung.

Zusammenfassend mag ich zu erkennen, dass die Perspektive komplexer adaptiver Systeme seine Vorzüge hat, wie auch der deduktiv formale traditionell ökonomische Ansatz die seinen besitzt. Es wird also — und das zurecht — ein Hand in Hand beider (und noch anderer) Ansätze brauchen, um Einsichten und Erkenntnisse zu erhalten, möglicherweise aber mit deutlich verschobenen Gewichten. Warum ist dem so? Nun, weil wir mit Modellen der „Realität“ hantieren, die per definitionem begrenzte Abbildungen eines Ausschnittes der „Realität“ sind, welche einem bestimmten Zweck folgen. Aufgabe des integeren Wissenschaftlers scheint mir daher zu sein, deutlich zu machen, warum er sich bei der Untersuchung seines Forschungsobjektes für den jeweiligen Ansatz entschieden hat und eventuelle Freiheitsgrade im Modellierungsprozess transparent zu machen (wie von Tim bereits bemerkt).

Freundliche Grüße
Mark Kirstein

Tim November 19, 2012 um 20:57 Uhr

Agentenbasierte Methoden hatte ich auch in meiner Masterthesis verwendet als Abschluss einer Abhandlung über ein neoklassisches Wachstumsmodell.
Ein ganz spannendes Thema, was aber nun mal das Problem besitzt, dass es nicht die eine Lösung kennt, die für jeden selbst nachvollziehbar und in einfache Sätze gepackt werden kann.
Viele Agentenbasierte Methoden arbeiten auch mit Stochastik, sodass noch nicht mal im gleichen Setting gleiche Ergebnisse erzeugt werden müssen.
Auch ist der Charme der alten Welt Parameterbereiche angeben zu können, in den bestimmtes Verhalten zu beobachten ist.
Hier kommt man mit komplexen Simulationen natürlich in die Komplexitätsprobleme.
Auf der anderen Seite lassen sich so endlich auch die Verteilungseigenschaften von z.B. Vermögen betrachten. Endlich kann so der der Median an die Stelle des arithmetischen Mittels treten.
Um die Qualität von solchen Modellen beurteilen zu können wird man die Mechanismen inklusive Parametrisierung offen legen müssen.
Dafür wird man allgemein anerkannte Standards entwicklen müssen, um auch anderen mit ihren Konfigurationen ein Durchsimulieren zu ermöglichen.
Ansonsten kann durch belibiges Schrauben irgendwo vermutlich jedes gewünschte Ergebnis erreicht werden.
Die Praxis kann dann natürlich auch zeigen, dass alles doch anders läuft.
Nur was soll man von Ansätzen halten, die nicht mal im Modell funktionieren.
Von daher könnten diese als Sieb fungieren.

Beste Grüße
Tim

Ina Vera Ast November 19, 2012 um 08:43 Uhr

Sehr geehrter Herr Elsner,

Sie beschreiben korrekt, dass die bisher angewandten linearen ökonomischen Theorien nicht in einer immer komplexer werdenden Welt funktionieren können.
Hier liegt also das Hauptproblem, das allerdings nicht nur einen Paradigmen-, sondern vor allem einen Methodenwechsel erfordert.

Die mithilfe von empirischen Erkenntnissen konstruierten sogenannten induktiven Theorien beziehen sich in der Regel, rein logisch nachvollziehbar, auf die Vergangenheit. Außerdem kann man mit der induktiven Methode nur „geschlossene Modelle“ erstellen, in die sich keine abweichenden Ergebnisse integrieren lassen. Nur mithilfe der Deduktion, die eine möglichst allgemeine Aussage durch ständige Nachprüfung/ Falsifikation mit der sich ändernden Wirklichkeit verbindet, kann ein adäquates “ offenes Modell“ erstellt werden. (Thomas Mayer, Deutsche Bank, spricht den erforderlichen Methodenwechsel nach der Wissenschaftstheorie von Karl Popper an).

In der Ökonomie ist also ein Methodenwechsel dringend erforderlich, so wie ihn die medizinische Forschung mit der Evidenzbasierten Medizin bei komplexen Erkrankungen schon vollzogen hat.

Viele Grüße
Ina Vera Ast

Comments on this entry are closed.

Previous post:

Next post: