Grenzen künstlicher Intelligenz

by Dirk Elsner on 20. Mai 2019

Ich habe in diesem Blog schon mehrfach geschrieben, dass ich den Begriff "künstliche Intelligenz" nicht mag und werbe seit Jahren für einen realistischen Anspruch an künstliche Intelligenz. Nun ist meine Meinung für die Begriffsbildung einer Industrie, die mit “künstlicher Intelligenz”  Milliarden Umsätze erzielt, nicht maßgeblich. Daher werde ich, bis sich eine anderer Begriff durchsetzt, ihn vorerst weiter verwenden.

image

Künstliche Intelligenz soll Maschinen befähigen, Aufgaben „intelligent“ auszuführen. Dabei ist allerdings nicht festgelegt, was „intelligent“ bedeutet und welche Techniken zum Einsatz kommen, erklärt das Fraunhofer-Institut. Diese begriffliche Nähe zur menschlichen Intelligenz führt in der Technologiewelt nach Auffassung zu der unsinnigen Frage, wann eine Maschine die Intelligenz des Menschen nachahmen könne. Nick Bostrom schreibt dazu in seinem Buch “Superintelligenz”

“Mit Maschinen, die dem Menschen an allgemeiner Intelligenz gleichkommen– die also über gesunden Menschenverstand ebenso verfügen wie über die Fähigkeit zu lernen, zu schlussfolgern und zu planen, um komplexe Herausforderungen in einer Vielzahl von natürlichen und abstrakten Bereichen zu meistern–, wurde seit der Erfindung des Computers in den 1940er Jahren gerechnet.”

In einer ausführlichen Beitragsreihe zum Neudenken der Ökonomie (letzter Beitrag hier) habe ich mich u.a. mit moderner Hirnforschung beschäftigt. Danach kann ich mir nicht vorstellen, dass Maschinen Menschen in ihrer evolutionären Vielfalt selbst mit der 1000-fachen Rechenleistung eines Tages nachbilden können. Die Neurowissenschaft hat zwar in den letzten Jahren große Fortschritte gemacht, übt sich aber weiterhin in Bescheidenheit, was das Verstehen des menschlichen Gehirns ausmacht. Das durch das Gehirn gesteuerte menschliche Verhalten wird u.a. durch verschiedenste Funktionen, Gehirnzellen und chemische Substanzen, die die Arbeitsweise des Nervensystems beschleunigen oder bremsen, sowie dem (epi-)genetischen System und kulturellen Außeneinflüsse bzw. Lebensbedingungen beeinflusst. Selbst wenn die Wissenschaft die komplexe Arbeitsweise des menschlichen Gehirns entschlüsselt hätte, ließe sich das kaum nachbauen.

Weil aber das Gehirn und das menschliche Verhalten so komplex ist, versucht sich die Praxis an Vereinfachungen. KI-Algorithmen lernen meist einzelne Fähigkeiten, die sie mechanisch und ohne Emotionen abarbeiten. Bestenfalls kann künstliche Intelligenz also ein vereinfachtes Modell des menschlichen Verhaltens abbilden. Solche  Modelle skizzieren dabei uns Menschen als rationale Wesen. Das zentrale Leitbild der Ökonomen für “vernünftiges” Verhalten ist der ökonomische Mensch (genannt Homo oeconomicus). Ökonomen hat es dabei noch nie gestört, dass diese Kunstfigur auf unrealistischen Annahmen beruht. Menschen sind danach gut informierte Nutzenmaximierer. Auf dieser Grundlage basieren viele ökonomische Vorhersagen sowie Ratschläge für die Wirtschaftspraxis und Politik. Von diesem Idealtypus abweichendes emotionales Verhalten bezeichnen Ökonomen gern als “irrationales” oder kognitiv verzerrtes Verhalten. Damit wir durch unsere Emotionen verzerrte Entscheidungen vermeiden, sollen digitale Helfer mit Hilfe “künstlicher Intelligenz” unterstützen, „richtige“ Entscheidungen vorzubereiten und zu treffen. Allerdings basieren diese Helfer auf einem verkehrten Menschenbild. Möglicherweise ist das ein Grund, warum KI in der Praxis bisher nur in abgrenzbaren Aufgabengebieten funktioniert.

Wie dem auch sei, in meiner neuen Kolumne für Capital

Die Grenzen der Künstlichen Intelligenz

greife ich die hohen Erwartungen an die KI für das Finanzwesen noch einmal auf und versuche die Erwartungen zu dämpfen. Aber Künstliche Intelligenz muss nicht das menschliche Denken ersetzen. Es reicht, sie als mächtiges Werkzeug für klar umrissenen Aufgaben einzusetzen. Mit den verschiedensten Technologien der künstlichen Intelligenz kann man heute schon Bewerber für einen bestimmten Job vorselektieren, Straftaten vorhersehen und Tumore erkennen und auch in vielen Anwendungsbereichen das Finanzwesen unterstützen. Wenn man von der irrigen Annahme absieht, eine „Artificial General Intelligence“ klopfe irgendwann mit einem Bewusstsein an unsere Tür, können wir uns auf die realistischen Anwendungsfälle konzentrieren, die sich für abgegrenzte und standardisierbare Aufgaben eignen.

Comments on this entry are closed.

{ 1 trackback }

Previous post:

Next post: