Finanzmärkte in Emergenzen denken (II): Agenten-basierte Simulation

by Dirk Elsner on 29. Oktober 2012

Täglich versuchen uns ja “Experten” die Finanzmärkte bzw. die Aktivitäten auf diesen Märkten zu erklären. Die meisten dieser Erklärungen haben eher anekdotischen Charakter, weil sie im Nachhinein mit kluger und manchmal bewusst komplizierter Sprache eine möglichst plausibel erscheinende Erklärung für bestimmte Geschehnisse suchen (ex-post-Rationalisierung). Aus diesen Erklärungen glaubt man dann Diagnosen und Therapien gegen Fehlentwicklungen ableiten zu können. Ich bin da ja seit Jahren ausgesprochen skeptisch.  

Anfang Oktober habe ich vorsichtig versucht, mich dem Denken in emergenten Eigenschaften von Finanzmärkten anzunähern. Das ist gar nicht so einfach, wenn man eine traditionelle ökonomische Ausbildung erhalten hat und täglich in der Wirtschaftspresse und in Gesprächen eher mit Denken in traditionellen Kategorien konfrontiert ist. Aber ich finde das Thema unglaublich spannend, halte es aber noch für zu wenig beachtet, vielleicht sogar noch zu wenig erforscht.

Was ich unter Emergenz verstehe, habe ich in dem Beitrag “Eine Annäherung” erläutert. Danach zeichnen sich emergente Systeme dadurch aus, dass sie sich nicht durch ihre Bausteine allein erklären lassen, also nicht einfach die Summe ihrer Teile sind. Ein Beispiel dazu von Sebastian Stein in seiner Definition von Emergenz:

“Das Phänomen der Emergenz lässt sich am Beispiel Temperatur verdeutlichen. Betrachtet man ein einzelnes chemisches Molekül, wie z. B. das Wassermolekül, dann kann man für dieses Molekül keine Temperatur bestimmen. Hat man allerdings eine große Menge des einzelnen Moleküls, dann ist es möglich eine Temperatur zu ermitteln. Die Temperatur entsteht erst, wenn viele Moleküle aufeinander treffen. Somit kann die Temperatur als eine emergente Eigenschaft vieler Moleküle angesehen werden. Bei Wasser ist die Temperatur eine emergente Eigenschaft der Wassermoleküle, aber es ist keine emergente Eigenschaft des Wassers.”

image

“Durch Wechselwirkungen zwischen Wind und Oberflächenstruktur bilden sich in der Sandwüste emergente Rippelmuster und Dünenlandschaften aus” (Text: Wikipedia, Foto: Dirk Elsner)

 

Emergente Systeme haben keinen zentralen Steuerungsmechanismus, an dem man einfach ansetzen kann, um sie zu beeinflussen. Ich finde die Gedanken von Beate Reszat spannend, Finanzmärkte als emergente Systeme anzusehen. Während Beate in dem Beitrag “Finanzmärkte im Katastrophenschutz” schon versucht, praktische Konsequenzen zu ziehen, will ich erst ein schauen, wie versucht wird, komplexen Wechselwirkungen der Finanzmärkte überhaupt abzubilden.

Wenn man etwas sucht, dann findet man abseits der aktuellen Diskussionen einige Arbeits- und Forschungspapiere, die sich damit befassen. So hat Mark Kirstein in dem Arbeitspapier “Stochastische Finanzmarktmodelle und Instabilität von Finanzmärkten” ebenfalls den Ansatz aufgegriffen und sich Gedanken gemacht über die Instabilität von Finanzmärkten. Er schreibt (Absätze und Hervorhebungen durch mich):

“Die häufigen Boom & Bust-Zyklen mit aufeinanderfolgenden großen Kurssprüngen, Blasen und Crashs zeigen die offensichtliche Instabilität von Finanzmärkten. In der neoklassischen Gleichgewichtstheorie finden sich keine befriedigenden Erklärungen für diese Phänomene.

Vielversprechende Einblicke liefert dagegen die moderne Komplexitätsforschung. Ausgehend von der System- und Komplexitätstheorie wird der Finanzmarkt als ein komplexes System verstanden, bestehend aus vielen heterogenen Akteuren, das aus sich selbst heraus neue emergente Eigenschaften generiert, wie die angesprochenen Boomphasen und großen Kurseinbrüche. Diese Sichtweise spricht dem komplexen System Finanzmarkt also grundsätzlich das Potenzial für endogene Instabilität zu. Dabei wird kein Gleichgewichtskonzept benötigt und es werden evolutionäre Konzepte inkorporiert, beispielsweise bezüglich der Strategiewahl der Akteure und der sich ausbildenden kollektiven Muster.

Eine charakteristische Eigenschaft komplexer Systeme sind das Auftreten von Potenzgesetz-Verteilungen. Vielfältige Ergebnisse Agenten-basierter Simulationen bringen nun genau diese Potenzgesetz-Zusammenhänge hervor. Die Untersuchungsmethode der Agenten-basierten Simulation bildet zudem die Existenz heterogener Akteure ab, indem sie sie rechnergestützt interagieren lässt und die sich ausbildenden (statistischen) Regelmäßigkeiten einer Analyse zugänglich macht. Diese Fakten zeigen zum einen den theoretischen Nutzen stabiler Lévy-Verteilungen als auch die Zweckmäßigkeit der Sichtweise des Finanzmarktes als komplexes System.”

Kirstein gibt hier bereits einen spannende Hinweis darauf, wie sich solche Systeme untersuchen lassen: Agenten-basierte Simulation. Und dieses Thema taucht immer häufiger in Beiträgen und Artikel auch diesseits wissenschaftlicher Spezialpublikationen auf. So hat etwa Hans Christian Müller auf den Ökonomieseiten des Handelsblatts sich des Themas angenommen und dabei nicht zuletzt auf den Bielefelder Ökonomen Prof. Dr. Herbert Dawid verwiesen.

Ich arbeite mit Simulationen in meiner betriebswirtschaftlichen Beratungspraxis, wenn wir etwa Businesspläne von Unternehmen einer Szenarioanalyse auf Monte-Carlo-Basis unterziehen (ausführlicher Hintergrund in dieser Beitragsreihe). Aber die agentenbasierte Modellierung für Ökonomische Modelle geht noch etwas weiter.

 

Was versteht man unter Agenten-basierter Simulation? Die Wikipedia erklärt agentenbasierte Modellierung als eine spezielle, individuen-basierte Methode der computergestützten Modellbildung und Simulation.

Jürgen Rauh, Tilman A. Schenk und Daniel Schrödl versuchen diesen noch sehr jungen Ansatz abzugrenzen von der traditionellen sozialwissenschaftlichen Forschung:

“Sozialwissenschaftliche Methoden werden von zwei grundsätzlichen Denkrichtungen bestimmt: Deduktive Ansätze haben die Entwicklung von allgemeingültigen Gesetzmäßigkeiten für soziale Phänomene zum Ziel, häufig in Form von mathematischen Gleichungssystemen. Induktive Ansätze hingegen versuchen, aus einer Vielzahl von meist qualitativen Einzelbeobachtungen zu  generalisierten Aussagen zu kommen. Ob sozialwissenschaftliche Simulationen einen gleichberechtigten dritten Erkenntnisweg darstellen, kann noch nicht endgültig beantwortet werden. Fest steht nur, dass sie schwer einer der beiden vorherigen Richtungen zuzuordnen sind: Zwar gehen sie auch von einer scharf umgrenzten Menge von Annahmen aus, unterscheiden sich von der Deduktion jedoch dadurch, dass sie keine Hypothesen beweisen. Stattdessen bilden Einzeleingaben die Grundlage für Generalisierungen auf der Ergebnisseite. Anders als bei klassisch induktiver Vorgehensweise bestehen die Eingabedaten aber nicht aus Beobachtungen sozialer Phänomene, sondern aus a priori festgelegten Regeln.

“Diese Form der Generalisierung (Emergenz) stellt das zentrale Erkenntnisinteresse
sozialwissenschaftlicher Simulation dar. Emergente Phänomene sind solche, für die Beobachtungen auf einer aggregierten Ebene nicht mit denen auf einer unteren Ebene konsistent sind. Was hier anklingt, ist die Jahrzehnte alte Suche nach der Verbindung zwischen Mikro- und Makroebene, der „unsichtbaren Hand“, die einzeln und auf ihre eigenen Ziele gerichtet handelnde Individuen dazu bewegt, eine soziale Funktion zu erfüllen. Auf  diesen Mikro-Makro-Dualismus wird häufig auch durch die Gegenüberstellung mit den gegensätzlichen Begriffspaaren lokal-global, individuell-kollektiv oder kognitiv-sozial Bezug genommen. Der Unterscheidung liegt die Auffassung zugrunde, dass ab einem gewissen Aggregationsniveau die Charakteristika niedrigerer Ebenen „wegabstrahiert“ werden können, ohne das Ergebnis der Untersuchung signifikant zu verfälschen. Jedoch wird dabei außer Acht gelassen, dass die beiden Ebenen individueller Motivation und  kollektiver Struktur (Raumstrukturen, Institutionen) in Wechselwirkung treten, sich also gegenseitig beeinflussen.”

Rauh, Schenk und Schrödl erklären in ihrem Working Paper auch, was eine agentenbasierte Simulation ist:

“Die Grundidee dieses aus der Informatik stammenden Ansatzes besteht darin, herkömmliche, monolithische Programme durch eine Menge elementarer Softwarebausteine („Agenten“) zu ersetzen, die das anstehende Problem durch ihre Selbstorganisation in einem Multi-Agenten-System lösen und so in gewisser Weise (und mit Einschränkungen) intelligent handeln. Diese „Gesellschaft“ von Agenten hat die Organisation menschlicher Gesellschaften zum Vorbild und eignet sich deshalb besonders gut als Simulationsparadigma in den Sozialwissenschaften. Die Agenten können dabei mit einem breiten Verhaltensrepertoire ausgestattet werden, das  es ihnen erlaubt, innerhalb ihrer individuellen Möglichkeiten und auf Basis ihrer Motivationen und  Präferenzen autonom oder in Interaktion mit anderen Agenten zu agieren. Definiert werden müssen jedoch die Regeln und Bedingungen, unter denen diese Interaktionen und Handlungen erfolgen sollen.” 

Die Autoren befassen sich dann mit der Frage, ob solche Systeme überhaupt geeignet sind für ökonomische Anwendungen und zeigen dann die Anwendung auf die Simulation von Konsumentenverhalten. Bei derartigen Systemen werden die Subjekte der Realwelt durch Agenten in Form autonom arbeitender Programme beschrieben (Dirk Pawlaszczyk, Skalierbare agentenbasierte Simulation).

Wolf-Ulrich Raffel vom Institut für Informatik der Freien Universität Berlin erklärt in einem kurzen Paper:

“In der Agentenbasierten Simulation geht es darum, komplexe Realsysteme, die aus miteinander und mit ihrer Umwelt interagierenden Entitäten bestehen, als Multiagentensysteme zu interpretieren und gemäß dieser Interpretation zu simulieren. Im Vergleich zu vielen traditionellen Methoden der Simulation – wie kontinuierliche Simulation (Differentialgleichungen), Diskrete-Ereignis-Simulation, zelluläre Automaten und Spieltheorie – ist die Agentenbasierte Simulation weniger abstrakt und realitätsnäher.

Agentenbasierte Simulation wird heute in vielen Bereichen der Forschung angewendet, insbesondere in der Biologie, der Bioinformatik, den Wirtschaftswissenschaften, den Sozialwissenschaften und den Ingenieurwissenschaften.”

Frank Westerhoff befasst sich mit der Anwendung “Agentenbasierte Finanzmarktmodelle” . In einer Zusammenfassung schreibt er:

“Ein Vorteil agentenbasierter Finanzmarktmodelle besteht in der präzisen Abbildung des Verhaltens der Marktteilnehmer. Empirisches Wissen über Prognose- und Anlagestrategien kann direkt in die Modelle integriert werden. Neben einer angemessenen Beschreibung des Verhaltens individueller Agenten können ferner auch direkte Interaktionseffekte, wie zum Beispiel ein Herdenverhalten innerhalb sozialer Netzwerke, sowie institutionelle Aspekte des Marktes realitätsnah berücksichtigt werden.”

Im letzten Beitrag dieser kleinen Reihe schaue ich einmal, was ich so zur Anwendung gefunden habe.

RalfKeuper Oktober 29, 2012 um 13:47 Uhr

Ein Ökonom, der bereits mit Agentensimulationen forscht, ist Dirk Bezemer. http://bit.ly/zmPkuA.
Interessant finde ich dem Zusammenhang noch das Konzept der „Kenetik“ von Jacques Ferber in seinem Buch „Multiagentensysteme – Eine Einführung in die Verteilte Künstliche Intelligenz“ http://bit.ly/TOyrJm und John Hollands Arbeiten zu Thema Complex Adaptive Systems (CAS) http://bit.ly/Pg9GmW
Um die Gedanken für die „herkömmliche“ Ökonomie fruchtbar zu machen, brauchen wir in der Tat einen interdisziplinären Ansatz, wie ihn Jacques Ferber und das Santa Fe Institute vertreten http://bit.ly/TPC23P – und nicht zu vergessen: Mandelbrots Fraktale http://bit.ly/RrC0Ak.
Davon sind wir aber in der Ökonomie nach meinem Eindruck nach weit entfernt. Hier gilt in den meisten Fällen noch immer die mechanistische, lineare Sicht.

Tim Oktober 29, 2012 um 07:58 Uhr

Ich wünsche mir seit langem, daß sich die Ökonomie (und andere sozialwissenschaftliche Disziplinen) verstärkt mit diesem Ansatz befassen. Allerdings befürchte ich, daß die wesentliche Impulse dafür nicht aus dem Hochschulbereich kommen werden. Welcher talentierte Mathematik-, Physik- oder Informatikabsolvent wechselt zwecks Promotion schon in die Wirtschaftswissenschaften, um dort z.B. solche Modelle zu entwickeln?

Modellierung ist nicht trivial, und der Glaube an die gewohnten (und weitgehend unbrauchbaren) statistischen Verfahren ist in den Sozialwissenschaften leider weit verbreitet. Sind ja auch so schön einfach zu rechnen, auch wenn man damit keine belastbaren Vorhersagen hinbekommt.

Meiner Meinung nach müssen die wirtschaftswissenschaftlichen Institute interessanter für naturwissenschaftliche Absolventen werden, bevor es hier vorangeht. Das heißt dann aber auch zwangsweise: Abschied nehmen von Trivialforschung, vor allem wenn sie sich quantitativ gibt. Das wird für einen Großteil des Forschungspersonals sehr schmerzhaft.

Dirk Elsner Oktober 29, 2012 um 15:59 Uhr

@Tim
Den Ansatz finde ich spannend. Ausgebildete Wissenschaftler anderer Disziplinen rüber zu holen in die Wiwi oder vielleicht ein interdisziplinäres Forschungsinstitut gründen, in dem Physiker, Biologen, Mathematiker und mehr an wirtschaftswissenschaftlichen Themen forschen.
Ich weiß gar nicht, ob es so etwas schon gibt.
Ich meine beim nstitute for New Economic Thinking (INET http://ineteconomics.org) sind auch vorwiegend Ökonomen aktiv, die aber immerhin in neue Richtungen denken.

RalfKeuper Oktober 29, 2012 um 17:04 Uhr

@Dirk Elsner @Tim

Am Santa Fe Institute arbeiten bereits Forschergruppen seit einigen Jahren über die Disziplinen hinweg an den Komplexen Systemen. Als Ökonomen sind bzw. waren dort z.B. Brian Arthur und Kenneth Arrow tätig. Dirk Bezemer von der University Groningen setzt bei seinen Forschungen agent based modeling ein.

Dirk Elsner Oktober 30, 2012 um 09:36 Uhr

Danke für die Infos Ralf,
es setzen ja mittlerweile viele die agentenbasierte Simulation ein. Der Text enthält diverse Hinweise auf Paper von Ökonomen.

Comments on this entry are closed.

{ 2 trackbacks }

Previous post:

Next post: