Die Vorzüge, wenn man sich für einen längeren Zeitraum für bestimmte Entwicklungen interessiert ist, dass man sieht, wie sich Modewellen für bestimmter Themen zu wiederholen scheinen. So geht es mir seit einiger Zeit mit dem Thema “Künstliche Intelligenz”. Ich erinnere mich gut an die Zeit meines Studiums in den 90er Jahren. In der Informatik gab es damals heiße Diskussionen, ob man Rechner bauen könne, die das menschliche Gehirn simulieren. Besonders heiß waren damals neuronale Netze für die Vorhersagen auf Finanzmärkten. Beinahe hätte ich meine Diplomarbeit über das Thema geschrieben.
Neuerdings stößt man oft auf Beiträge, die den “Megatrend” Künstliche Intelligenz (KI) ausrufen, wie jüngst die t3n. Hier schrieb Martin Recke, dass die KI die Menschheit verändern werde und uns vielleicht sogar unseren Körper kosten könne. Für breitere Aufmerksamkeit für Künstliche Intelligenz sorgte außerdem ein Go-Spiel zwischen AlphaGo von Google gegen den Go-Meisterspieler Lee Sedol. Die FAZ titelte “Eine Revolution steht vor der Tür” und schrieb in einem Beitrag zu Computermesse Cebit:
“Die IT-Branche macht sich fit für die nächste Revolution. … Zehntausende Ingenieure arbeiten an Maschinen, Programmen und Prozessen, welche Maschinen quasi intelligent und Roboter für das tägliche Leben von Millionen Menschen einsatzbereit machen sollen.”
Es ist also höchste Zeit, sich dem Thema auch hier zu nähern. Laut Wikipedia bezeichnete KI den Versuch, eine menschenähnliche Intelligenz nachzubilden, d. h., einen Computer zu bauen oder so zu programmieren, dass dieser eigenständigen Probleme bearbeiten kann. Oftmals wird damit aber auch eine effektvoll nachgeahmte, vorgetäuschte Intelligenz bezeichnet, insbesondere bei Computerspielen, die durch meist einfache Algorithmen ein intelligentes Verhalten simulieren soll. Fachleute wie Ray Kurzweil, erwarten, dass 2029 Computer nahezu alles tun können, was auch Menschen schaffen können (vgl.Finextra, Rise of the robots).
Gehirn noch nicht verstanden
Ich finde das Thema hochinteressant, halte aber Überhöhungen, wie man sie von Kurzweil oder etwa von Nick Bostrom in seinem Buch “Superintelligenz” lesen kann, für übertrieben. Ich glaube nicht, dass wie auch immer konstruierten Maschinen einen Menschen simulieren können. Möglich, dass das eines Tages passiert, diesen Tag werden die meisten von uns aber nicht mehr erleben. Das schließt selbstverständlich nicht aus, dass Maschinen in vielen Teilbereichen “bessere” Ergebnisse erzielen als Menschen.
Will man den Menschen simulieren, dann müsste man ihn und vor allem die Funktionsweise seines Gehirns genau verstehen. Davon sind Wissenschaftler weit entfernt, was nicht heißt, dass sie nichts darüber wissen. Insbesondere das Human Brain Projects (HBP) hat das Ziel, das menschliche Gehirn mit Hilfe eines Supercomputers besser zu verstehen. Das HBP ist auf zehn Jahre ausgelegt, soll 1,19 Milliarden Euro kosten und steht noch ganz am Anfang. Wer einmal durch aktuelle Bücher über Hirnforschung blättert, der wird wissen, warum die Menschheit noch weit davon entfernt ist, die Vorgänge im Gehirn zu verstehen.
Praxisnäheres Verständnis notwendig: Maschinelles Lernen
Aber wie gesagt, nur weil wir weit davon entfernt sind, alle Vorgänge im menschlichen Hirn zu verstehen, heißt das nicht, dass wir die Finger von “Künstlicher Intelligenz” lassen sollten. Man muss nur den überhöhten Anspruch aufgeben und sie praxisnäher verstehen. Idealerweise findet man auch bessere Begriffe als “Künstlicher Intelligenz”.
Das sehr geschätzte Computermagazin hatte dazu jüngst ein KI-Special (Heft 6 2016). Ich würde jedem empfehlen, der sich für die Materie interessiert, sich diese Ausgabe zu besorgen. Jo Bager schlägt darin (S. 125) ein praxisnahe KI-Definition vor. Danach umfasst KI in Anlehnung an den Informatiker John McCarthy
„das sogenannte maschinelle Lernen; verbreiteter ist dafür der englische Begriff Machine Learning. Dabei kommen Algorithmen zum Einsatz, die während der Benutzung anhand der verarbeiteten Daten hinzulernen oder die vor der Benutzung eine Trainingsphase durchlaufen haben. Es gibt etliche lernende Algorithmen. „Naive Bayes“ etwa kommt in Spam-Filtern zum Einsatz, „Collaborative Filtering“ (zu Deutsch kollaboratives Filtern) bei Amazons Funktion „Kunden, die diesen Artikel gekauft haben, kauften auch: …“.
Jo Bager befasst sich auch mit Neuronalen Netzen, bzw. besser “Künstlichen Neuronalen Netzen“. Er schreibt:
“Die aktuellen Superstars unter den lernenden Algorithmen aber sind die (künstlichen) neuronalen Netze, genauer gesagt, die Deep Neural Networks (DNN), also tiefe neuronale Netze. Neuronale Netze sind relativ einfache Nachbildungen des menschlichen Gehirns. Dabei sind Nervenzellen, Neuronen, in mehreren Schichten hintereinandergeschaltet. Von Deep Neural Networks spricht man, wenn zwischen der Eingangs- und Ausgangsschicht mehr als zwei weitere Schichten liegen.”
Bager schreibt, dass die besondere Stärke lernender Algorithmen in der Mustererkennung liegt, wie sie zum Beispiel bei der Objekterkennung bei Google Photos zum Einsatz kommt. Auch Bager sieht derzeit nicht so etwas wie eine Superintelligenz, hält es aber für erforderlich sich mit KI auseinanderzusetzen und sie zu verstehen. Dafür liefert er eine gute Grundlage.
Künstliche neuronale Netze
Ein weiterer Artikel dieser C´t befasst sich mit neuronalen Netzwerken, der aktuell laut Jo Bager wichtigsten KI-Technik. In “Netzgespinste” erklärt Andrea Trinkwalder auf verständliche Art die Mathematik neuronaler Netze. Trinkwalder schreibt (S.130):
“Neuronale Netze hingegen sind zunächst nicht auf das Erkennen bestimmter Merkmale getrimmt, nicht mal zwingend auf ein bestimmtes Fachgebiet. Sie bestehen aus sehr einfachen, dafür aber extrem vielen mit -einander vernetzten mathematischen Funktionen. Erst im Laufe des Trainings, nach Ansicht Tausender bis Millionen von Beispielen, lernen die Netze, was wichtig ist: das Essenzielle an einem Gesicht, einer Katze, einem Hund oder einem Flugzeug.”
Technologien künstlicher Intelligenz
Bei meiner kleinen Reise durch die künstliche Intelligenz bin ich dann auf verschiedene Anwendungsgebiete gestoßen. Hier eine sicherlich unvollständige Aufzählung:
- Spracherkennung: Die moderne Spracherkennung, die auf statistischen Techniken wie etwa den Verborgenen-Markov-Modellen basiert, ist inzwischen gut genug für den Alltagsgebrauch (einige Teile dieses Buchs wurden mit Hilfe eines Spracherkennungsprogramms geschrieben). Persönliche digitale Assistenten wie Apples Siri reagieren auf gesprochene Befehle und können einfache Fragen beantworten bzw. Befehle ausführen. Die optische Zeichenerkennung von handschriftlichen und maschinengeschriebenen Texten ist bei (Nick Bostrom, Superintelligenz, S. 19)
- Stimmungserkennung: Sentiment Detection (auch Sentimentanalyse, englisch fur „Stimmungserkennung“) ist ein Untergebiet des Text Mining und bezeichnet die automatische Auswertung von Texten mit dem Ziel, eine geauerte Haltung als positiv oder negativ zu erkennen. Forscher von der Universität in Rochester im US-Bundesstaat New York haben bereits den Grundstein gelegt: Sie haben einen Algorithmus entwickelt, derdie Stimme analysiert und die Laune eines Sprechers erkennt. (Quelle Golem)
- Schrifterkennung Siehe dazu FAZ, Roboter lernen schreiben
- Gesichtserkennung Siehe dazu Die WELT, So können Computer alles in Ihrem Gesicht entlarven)
- Expertensysteme: das heißt regelbasierte Programme, die zur Unterstützung von Entscheidungsträgern gedacht waren, enorm. Sie konnten einfache Schlussfolgerungen aus einer Datenbasis ziehen, die mühsam codiertes und von Hand eingegebenes menschliches Expertenwissen enthielt (Nick Bostrom, Superintelligenz, S. 12).
- Neuronale Netze: Die Netze eigneten sich daher gut zur Mustererkennung und für Klassifikationsprobleme. Ein Beispiel: Wenn ein neuronales Netz mit einer Menge von Sonarsignalen gefüttert wurde, dann lernte es, die akustischen Profile von U-Booten, Minen und Meerestieren besser zu unterscheiden als menschliche Experten– und zwar ohne dass jemand vorher herausfinden musste, wie diese Profile genau zu kategorisieren oder ihre Eigenschaften zu gewichten wären. Viele Arten von künstlichen neuronalen Netzen beispielsweise können als Klassifikatoren betrachtet werden, die eine besondere Form der statistischen Berechnung (die Maximum-Likelihood-Methode) durchführen. (Nick Bostrom, Superintelligenz, S. 13)
- Genetische Algorithmen: Evolutionsbasierte Methoden– darunter genetische Algorithmen und genetische Programmierung– sind ein weiterer Ansatz, dessen Entstehung zum Ende der zweiten KI-Eiszeit beitrug (Nick Bostrom, Superintelligenz, S. 13)
- Agentenbasierte Ansätze: Die Agenten-basierte Simulation ist eine individuenbasierte Methode der computergestützten Modellbildung und Simulation, die im Laufe der letzten 30 bis 40 Jahre aus verschiedenen Disziplinen wie Chaos-Theorie, Spieltheorie, künstlicher Intelligenz, komplexen Systemen, Multi-Agenten-Systemen, evolutionärer Programmierung und zellulären Automaten hervorgegangen ist. (Quelle: SAT AG)
- Mensch-Maschine-Schnittstellen/Gehirn-Computer-Schnittstellen: Es ist denkbar, dass Menschen mit direkten Gehirn-Computer-Schnittstellen (insbesondere Implantaten) die Stärken digitaler Computer– perfektes Gedächtnis, schnelle und genaue Kalkulation und Übertragung großer Datenmengen– ausnutzen und ihre nicht verbesserten Mitmenschen weit übertreffen werden.64 Doch obwohl die Möglichkeit direkter Verbindungen zwischen menschlichen Gehirnen und Computern bereits demonstriert wurde, ist es unwahrscheinlich, dass sich Schnittstellen dieser Art in absehbarer Zeit durchsetzen. (Nick Bostrom, Superintelligenz, S. 46).
Wer sich eine Stunde Zeit für dieses Thema nehmen möchte… hier ist ein umfassender Artikel über die Gefahren der Superintelligenz: http://www.seriengruender.de/superintelligenz/
Comments on this entry are closed.
{ 4 trackbacks }