Wahrscheinlichkeitsrechnungen = Insider‐Geschäft? (Teil 1)

by Gastbeitrag on 19. August 2014

Von Elmar Emde, Exklusiver Auszug aus aus dem Buch Die strukturierte Ausbeutung*

In der FAZ konnte man im Herbst 2009 lesen, dass Mathematiker, Physiker und Betriebswirtschaftler in der Zertifikate Branche = Investmentbank sehr gute Berufsaussichten haben. Warum wohl?

Insbesondere Mathematiker und Physiker sind sehr stark an der Entwicklung bestimmter und sehr geheimer und komplexer Algorithmen beteiligt, welche auf Basis der statistischen Erkenntnisse aus der Vergangenheit diese in die Zukunft extrapolieren nach dem Motto, alles wiederholt sich (auch eine Erkenntnis von Friedrich Schiller), nur muss man wissen wie und wann.

Diese Analysen = mathematischen Rechnungen = Wahrscheinlichkeitsrechnungen haben sich in den letzten Jahren aufgrund der überaus rasant fortschreitenden, bzw. sich nahezu täglich ausweitenden Rechnerkapazitäten, welche je nach Ausstattung des Computers einige Milliarden Rechenschritte (Tendenz geht zu einigen Billionen) pro Sekunde, ausführen können, Jahr für Jahr, bzw. Tag für Tag verfeinert und stark verbessert. Mittlerweile können unvorstellbar große Mengen an Daten gespeichert werden, die mit den bekannten Zahlengrößen nicht mehr zu fassen sind. Auch haben sich die Zugriffsmöglichkeiten auf diese Daten enorm verbessert und erfolgen bereits in Sekundenbruchteilen.

Mittlerweile findet in diesem Bereich ein regelrechtes Wettrüsten statt. Lt. Handelsblatt besteht ein Vierkampf zwischen China, den USA, Japan und Europa um den schnellsten Supercomputer der Welt. Mittlerweile haben sich die USA und Japan zusammengeschlossen, um den Erfolgen von China Paroli bieten zu können.

Weltweit versuchen die Forscher Rechner zu entwickeln, um die Schallmauer von einer Trillion Rechenschritte (tausend Billionen) pro Sekunde, auch Flops (Floating‐point operations pro Sekunde) oder auch exaflops genannt, durchbrechen zu können. Das Rechentempo wäre dann 100‐mal schneller als das des japanischen Supercomputer K, der in 2011 bereits bestehende hohe Rechnerkapazitäten durchbrochen hatte.

Die weitere Entwicklung ist hier nicht abzusehen, die Grenzen nach oben gibt es praktisch nicht. Mit der Entwicklung solcher hohen Rechnerkapazitäten sind handfeste wirtschaftliche Interessen verbunden und zielen auf Informationsvorsprünge in allen Bereichen der Wirtschaft und damit auf Benachteiligung anderer ab. Wenn man den Berichten der Zukunftsforscher Glauben schenken darf, sollen sich diese Kapazitäten schon bald in eine künstliche Intelligenz fortentwickeln und sogar das menschliche Gehirn in etwa 10 Jahren übertrumpfen können. Horrorvisionen wie in den Terminator‐Filmen in Szene gebracht, dürften somit bald Wirklichkeit werden. Die hocheffizienten Kampfdrohnen, bzw. sich selbst produzierende Maschinen, allerdings in kleiner Größe, gibt es bereits schon.

Ein Beispiel für sich formierende künstliche Intelligenz gab es bereits schon 1997. In diesem Jahr gelang es erstmals einen Computer mit dem Namen Deep Blue von IBM, den damaligen amtierenden Schachweltmeister Kasparow unter Turnierbedingungen zu besiegen. Damit wurde den Menschen erstmals bewusst, zu welchen Leistungen ein Computer fähig ist. Während Kasparow pro Sekunde drei mögliche Schachzüge durchdenken konnte, waren es bei Deep Blue schon damals 200 Millionen.

Selbst von IBM wurde damals aber der These widersprochen, dass Deep Blue bereits ein lernendes System sei, da hinter Deep Blue ein ganzes Team von Programmierern stand, welche die Möglichkeit hatten, das Programm zwischen den Partien zu modifizieren, wodurch Kasparow nicht nur gegen die Maschine spielt, sondern auch gegen das gesamte Deep‐Blue Team.

Dennoch konnte mit Hilfe dieser damals schon enormen Rechenleistung ein Genie des Schachspiels, welches eines der komplexesten Brettspiele mit einer unvorstellbar hohen Anzahl von möglichen Stellungen (geschätzt 2,28 X 10 hoch 46) und ein Paradebeispiel für menschliche Denk‐ und Strategiefähigkeit ist, geschlagen werden. Inzwischen sind bereits 16 Jahre vergangen, in denen sich auf dem Feld der Computertechnologie eine Menge verändert hat.

Nachrichtenagenturen bedienen sich beispielsweise schon einer gewissen Art von künstlicher Intelligenz. Um die vielen tausend Nachrichten, welche weltweit in kürzester Zeit bei diesen Agenturen hereinlaufen, besser und schneller verarbeiten zu können, werden die Nachrichten von den vielen tausend Journalisten weltweit bereits in Maschinen lesbarer Form verfasst, damit der Computer in einer Mikrosekunde die wichtigsten Nachrichten herausfiltern und an die wichtigsten Abonnenten, hier die zuerst belieferte Finanzindustrie, weitergeben kann.

Physiker versuchen beispielsweise das menschliche Gehirn an einem Supercomputer zu modellieren, also es nachzubauen, um zu verstehen, wie Signale ausgetauscht werden, wie einzelne Teile verknüpft sind und wechselwirken. Beispielsweise will man dadurch aus der Analyse kleiner Verkaufsbewegungen erkennen können, was in den nächsten Millisekunden auf den Märkten passiert, bzw. wie sich solche Finanzsysteme und Marktbewegungen entwickeln (entnommen aus einem Interview des Handelsblattes mit der Experimentalphysikerin Frau Professor Johanna Stachel von der Ruprecht‐Karls‐Universität in Heidelberg, / Frau Stachel forscht derzeit am Large Hadron Collider in Genf, dem derzeit energiereichsten Teilchenbeschleuniger – vor allem über das „Quark‐Gluon‐Plasma).

Letztlich zielen solche Forschungen im Finanzbereich nur auf einen extremen Informationsvorsprung gegenüber anderen Marktteilnehmern ab, im Endergebnis in Richtung Anleger, der sich auf die vertrauensvollen Aussagen seines ebenfalls nichts ahnenden Wertpapierberaters verlässt.

Manchmal kommt mir diese Forschungssituation und deren Zielrichtung so vor wie in den 40er‐Jahren des vorigen Jahrhunderts, als man die Atombombe entwickelt und sich damit nicht bewusst war, dass damit ein Schlüssel zur Vernichtung der Welt geschaffen wurde. Mit den jetzt angestrebten Ergebnissen dieser Forschungen wäre nicht auszuschließen, dass dann ein weiterer diesbezüglicher Schlüssel erschaffen wird, der von keinem Schloss mehr zu halten ist. Stellen Sie sich vor, undemokratische Kräfte gelangen an die Hebel dieser höchst beunruhigenden Möglichkeiten, die bisher bekannten unmenschlichen Diktatoren wären dann reine Kindergärten gewesen.

Bestes Beispiel für den Fortschritt dieser Berechenbarkeit sind die täglichen Wettervorhersagen, die jetzt schon bis zu 5 Tage im Voraus eine hohe Trefferquote verzeichnen können. Hier wird das Ergebnis vieler Messstationen inklusive der Satellitenfotos, die es früher in dieser Qualität nicht gab, eingesetzt und der Saldo
dieser Messergebnisse mit den ähnlichen oder gleichen aus der Vergangenheit verglichen, welche dann zu entsprechenden Wetter‐Entwicklungen geführt haben.
Da die vielen Messstationen eine ungeheuer hohe Anzahl von Daten liefern, können nur große Rechnerkapazitäten die Entwicklung des Wetters simulieren und somit recht genau vorhersagen.

Anderes Beispiel: Das Bonitätsrating der Banken, womit die Kreditwürdigkeit der Kreditkunden erstellt wird. Basis der Errechnung dieses Ratings sind die jeweiligen Bilanzen und Gewinn‐ und Verlustrechnungen im Mehrjahresvergleich, welche gewisse Entwicklungen der Ertragslage und in den Bilanzen preisgeben. Neben diesen qualitativen Daten werden meistens noch eine Reihe von Fragen an die Produkte des kreditnehmenden Unternehmens, die jeweilige Branchensituation, die Qualität der Geschäftsleitung, die laufende Geschäftsentwicklung, steuerliche Situation usw. usw., gestellt. Das Ergebnis dieser inquisitorischen Befragung nimmt dann eine „black box“ entgegen, die keiner dieser eingebenden Banker selbst kennt (auch ich damals nicht) und sich meines Wissen entweder in den Investmentbankeinheiten in den Vereinigten Staaten oder in London in hermetisch abgesicherten Gebäudekomplexen mit Stacheldraht und Wachpersonal befinden. Auskünfte darüber konnte ich nirgendwo erhalten, bzw. diese Informationen werden so behandelt, als wäre es ein Staatsgeheimnis.

Somit muss unterstellt werden, dass diese Informationen, welche die Unternehmen preisgeben mussten, zentralisiert und gebündelt in diese Wahrscheinlichkeitsrechnungen qualitativ einfließen. Auch konnte mir keiner sagen, wem diese „Blackbox“ gehört, wer sie pflegt und dann mit welchen Daten usw. sie versieht. Manipulationsmöglichkeiten in alle Richtungen wären damit Tür und Tor geöffnet und können nach den bisher bekannt gewordenen Manipulationsskandalen eigentlich nicht mehr ausgeschlossen werden, ganz zu schweigen von der Industriespionage und den Problemen des Datenschutzes, welche in den USA nicht den hohen Stellenwert haben wie in Deutschland.

In diesem Zusammenhang lässt einem die derzeit sehr gute Ertragslage vieler US‐amerikanischer Banken mehr als misstrauisch stimmen.

Zwischenzeitlich kann man aufgrund der sich immer mehr verbessernden Rechnerkapazitäten von guten Ratingergebnissen ausgehen. Jedoch gibt es auch hier noch deutliche Unterschiede. Banken mit guten Rechnerergebnissen haben weniger Kreditausfälle zu beklagen als solche mit Kapazitäten minderer Qualität.

Jedoch hängen die abgefragten Informationen auch von der Qualität der Frager ab. Insbesondere die Beurteilung des Managements bedarf einer hohen Menschenkenntnis und Fachexpertise. Ob die jungen Bankmanager, welche aufgrund des Jugendhypes an den Schaltstellen der Banken sitzen und zu Konzernapparatschiks mutierten, letztlich nur vorgegebene Fragebögen mit Kreuzchen versehen müssen, diese Qualitäten mitbringen, muss daher bezweifelt werden. Mir scheint auch, dass diese Qualitäten immer weniger gefragt sind und man – auch aus Kostengründen – zunehmend dieser Maschinerie vertraut. Ob eine Maschine die Managementqualitäten jetzt (aber vielleicht später?) richtig beurteilen kann, bleibt dahin gestellt.

Die mir bekannten Ratingsysteme untergewichten diesen meines Erachtens sehr wichtigen Teil einer Bonitätsanalyse mit der Folge einer in die falsche Richtung laufenden Analyse. Gute Bilanzen können durch ein schlechtes Management schlecht werden, aber schlechte Bilanzen können durch ein gutes Management gut werden. Aber vielleicht muss später das Management an einen entsprechenden Gen‐Computer angeschlossen werden.

Angefangen haben eigentlich damit viele Jahrzehnte davor die Lebensversicherungen mit Wahrscheinlichkeitsrechnungen zur Berechnung von Sterbetafeln, die Grundlage für deren geschäftlichen Erfolg. Die Sterbetafeln ergaben sich wiederum aus statistischen Größen über die Sterblichkeit bestimmter Personengruppen in gewissen Regionen und Lebenslagen, womit die Versicherungsbeiträge entweder gesenkt aber meistens nur angehoben wurden.

Diese Sterbetafeln spielen auch heute noch eine unverändert sehr wichtige Rolle bei der Findung nach profitablen Versicherungsprämien.

Aus meiner jetzigen Tätigkeit sind mir Fälle bekannt, wonach deutsche Initiatoren von geschlossenen Fonds laufende (man nennt sie auch gebrauchte) US‐amerikanische Lebensversicherungen auf Basis von falschen Sterbetafeln mit hohen Fremdmitteln aufgekauft hatten in der Hoffnung, durch den früheren Tod dieser Versicherungsnehmer einen schnellen Gewinn erzielen zu können. Das Ergebnis dieser Fonds war allerdings katastrophal und hoch negativ. Die Versicherungsnehmer erfreuten sich stattdessen einer ausgezeichneten Gesundheit und Lebensfreude, womit Sterbefälle und damit einfließende fällige Lebensversicherungspolicen ausblieben, dagegen hohe Zinsen an die Fremdkapitalgeber (u. a.US‐Banken) fällig wurden und das Defizit dieses Fonds neben den hohen weichen Kosten des Fondsmanagements somit rasant anwuchs. Am Ende musste der Fonds u. a. aufgrund meiner Intervention den von mir betreuten Investoren ihren Einsatz (allerdings ohne Agio) wieder zurückerstatten. Hinweis: Dieses Finanzprodukt wurde nicht von einer Investmentbank oder einer Finanzproduktvertriebsgesellschaft vertrieben, sondern von eine der großen Publikumsbanken.

Hier lag meines Erachtens die klare Absicht des Verkäufers der „gebrauchten“ Lebensversicherungen vor, die deutschen Investoren aufgrund falscher statistischer Sterbetafeln über den Tisch zu ziehen. Jetzt kann man einwenden, dass der Verkäufer falsche Sterbetafeln bewusst erstellt oder alte, nicht mehr aktuelle verwendet hat. Dieser Verkäufer war allerdings eine US‐Makler‐Gesellschaft, welche nicht über solche großen und teuren Rechnerkapazitäten verfügen dürfte und sich angeblich auf offizielle Sterbetafel gestützt hatte. Diese müssen aber aus der „Wahrscheinlichkeitsküche“ einer Versicherungsgesellschaft mit entsprechenden Kapazitäten erstellt worden sein und jetzt kann man darüber philosophieren, ob das mit Absicht geschehen ist oder nicht.

Fortsetzung folgt am 21. August.


* Die strukturierte Ausbeutung: Strukturierte Finanzprodukte und deren Wahrscheinlichkeitsrechnungen, die Ausplünderungsinstrumente der Finanzindustrie mit Hilfe der Politik. Elmar Emde betreibt ein Family Office Center (FOC) unter der Bezeichnung E.Emde Finanz- und Vermögenskoordination.

Der Autor Elmar Emde, ein Bankkaufmann alter Schule mit hohen praktischen Erfahrungswerten sah nach 34 Jahren Bankkarriere den Niedergang
der Banken, insbesondere den seines damaligen Arbeitgebers, der Dresdner Bank AG, kommen und gründete 2004 ein eigenes Unternehmen mit der Zielsetzung, Familienvermögen vor diesen Vermögenszersetzungen zu bewahIn diesem Buch wird die negative Entwicklung der (deutschen) Banken in den letzten 15 Jahren kritisch kommentiert und dabei auch einige Schritte, die zum Niedergang der kaputtstrukturierten Dresdner Bank führten, beschrieben. Die Ausführungen sollen dem Anleger, der sich in den wenigsten Fällen seiner Eigenschaft als Kreditgeber bewusst ist, helfen, den richtigen Weg für eine seriöse Vermögensanlage zu finden, anstatt sein Geld
in komplex konstruierte Finanzprodukte mit grundsätzlicher Option auf einen Totalschaden zu investieren.

Comments on this entry are closed.

Previous post:

Next post: