Die Zukunft hat schon längst begonnen: künstliche Intelligenz (Teil 1: die Grundlagen)

by Karl-Heinz Thielmann on 30. Juni 2015

Der fortschreitende Einsatz von Computern hat das Leben der Menschen in den vergangenen 50 Jahren radikal verändert. Die ständig voranschreitende Rechenleistung verbunden mit einer immer weiter gehenden Miniaturisierung hat eine Reihe von neuen Produkten – vom Personal Computer bis zum Smartphone – hervorgebracht; aber auch herkömmliche Produkte – wie das Automobil oder das Radio – grundlegend verändert. Neue Kommunikationsweisen wie das Internet oder der Mobilfunk erstanden und verbreiteten sich rasend schnell. Die Herstellungsweise von Gütern wurde durch Automatisierung radikal verändert; kostspielige Arbeitnehmer wurden in der Produktion immer weitergehender durch billige, leistungsfähige und zuverlässige Automaten ersetzt. Unzählige Arbeitsplätze in der Industrie gingen verloren. Im Gegenzug entstanden wiederum neue Branchen, die unter dem Oberbegriff TMT (Technologie, Medien und Telekommunikation) zusammengefasst werden. Mit diesen wurden ebenfalls Berufe wie Programmierer, Netzwerktechniker oder Mediendesigner geschaffen, welche die Arbeitsplatzverluste in der Industrie auffingen.

Doch hohe Rechenleistungen alleine machen noch nicht intelligent. Schlüsselkompetenzen von Intelligenz sind, von sich aus Muster in einer Vielzahl von unterschiedlichsten Daten zu erkennen; sowie hieraus in irgendeiner Form Konsequenzen zu ziehen. Hierin sind Menschen Computern trotz ihrer schwächeren Rechenfähigkeiten nach wie vor deutlich überlegen.

Denn traditionelle Computer können zwar schneller und genauer als ein Mensch kalkulieren, aber keine Probleme lösen, die nicht für sie in einer spezifischen Form vorstrukturiert sind. Damit sind sie zwar in der Lage, hervorragend in vorgegebener Weise Daten verarbeiten. Sie können aber weder wirklich denken; geschweige den Lösungen für neuartige Probleme finden. Herkömmliche Rechner sind ebenfalls nur sehr eingeschränkt dazu in der Lage, mit ihrer Umwelt kommunizieren. Der Nutzer muss sich einer an Computererfordernissen angepassten Eingabeweise bedienen; wie z. B. die Eingabe von Daten über eine Tastatur oder deren Übermittlung durch spezielle Schnittstellen.

Die Bemühungen, diesen „Autismus“ von Computern zu überwinden und Fähigkeiten zur Problemlösung und zur Kommunikation zu entwickeln, werden unter dem Begriff „Künstliche Intelligenz“ zusammengefasst. Insbesondere um vier spezielle Fähigkeiten von Maschinen geht es hierbei:

  • komplexe Situationen zu erfassen und zu analysieren;
  • Werturteile zu fällen und auf deren Basis Entscheidungen zu treffen;
  • für neuartige Probleme kreative Lösungen zu finden;
  • selbstständig mit ihrer Umwelt zu kommunizieren.

Ein lang gehegter (Alp-)Traum der Menschheit

Die Beschäftigung mit künstlicher Intelligenz ist kein neues Thema, ganz im Gegenteil. Bereits in der griechischen Mythologie gibt es die Vision denkender Maschinen, die in der Literatur speziell in der Romantik des 19. Jahrhunderts eine große Rolle spielt. Ebenfalls gab es immer wieder Versuche, denkende Maschinen der Öffentlichkeit zu präsentieren, die sich dann aber wie der Wiener „Schachtürke“ von 1769 immer als Fälschung herausstellten. Andererseits gab es aus der jüdisch/christlichen Denktradition heraus immer auch eine starke Ablehnung jedes Vorhabens, künstliche Intelligenz zu schaffen, als blasphemischen „Versuch, Gott nachzumachen.“ 1

Bereits die ersten Computerpioniere wie Alan Turing machten sich Gedanken darüber, wie die von ihnen konstruierten Rechenmaschinen zu intelligenten Leistungen zu bringen sind. Die Dartmouth-Konferenz von 1956 gilt allgemein als Startschuss der systematischen wissenschaftlichen Beschäftigung mit künstlicher Intelligenz. Hierbei war anfangs der Optimismus groß. So prognostizierte beispielsweise Herbert Simon in den 60er Jahren, dass innerhalb der nächsten 20 Jahre Maschinen jede menschliche Arbeit übernehmen können (“ … machines will be capable, within twenty years, of doing any work a man can do …“).2 Diese Hoffnungen wurden jedoch aufgrund der mangelnden Leistungsfähigkeit früher Rechner bitter enttäuscht. Die Forscher im Bereich künstlicher Intelligenz bekamen bald den Ruf von realitätsfernen Fantasten. 1974 stellten sowohl die USA wie auch Großbritannien jegliche Forschungsförderung für künstliche Intelligenz ein. 3

Expertensysteme: der erste Schritt zur Praxistauglichkeit

In den 80er Jahren kam es zu einer langsamen Renaissance der künstlichen Intelligenz, weil sich der Forschungsansatz weg von einer Universallösung (General Problem Solver) hin zur Lösung spezifischer Sachverhalte verschob. Dies geschah durch die Entwicklung von Computerprogrammen, die Menschen bei der Lösung von komplexen Problemen unterstützen, indem sie Wissen zu bestimmten Gebieten sammeln, auswerten und Handlungsempfehlungen hieraus ableiten. Diese sog. „Expertensysteme“ erwiesen sich jedoch gelegentlich als problematisch, weil sie immer relativ starren und aus Vergangenheitsinformationen abgeleiteten Regeln folgten. Hierhaus konnten sich falsche Empfehlungen ergeben bzw. schädliche Handlungen verursacht werden, wenn sich unerwartete Situationen ergaben. Ein Beispiel für das Versagen von Expertensystemen ist der Oktobercrash 1987, bei dem regelbasierte Handelsprogramme eine herausragende Rolle spielten. Hierbei kam es zu einer nicht vorhergesehenen Interaktion der verschiedenen Programme, die eine Flut von sich selbst verstärkenden Verkaufsorders auslöste.4

Seit den 90ern kommen Expertensysteme daher normalerweise nur noch in einer „entschärften“ Art und Weise zum Einsatz. Dies geschieht entweder dadurch, dass sie lediglich Entscheidungsvorlagen für menschliche Experten aufbereiten, aber nicht mehr selbstständig handeln; oder indem sie nur noch im Rahmen enger Sicherheitsgrenzen selbstständig agieren dürfen. Diese Arten der Anwendung von Expertensystemen haben in den vergangenen Jahren an Bedeutung gewonnen, insbesondere seit die jüngsten Fortschritte in der Rechnerleistung es ermöglichen, immer größere Datenmengen zu analysieren und auszuwerten. Diese unter dem Schlagwort „Big Data“ bekannt gewordenen Techniken sind inzwischen aus vielen Bereichen nicht mehr wegzudenken.

Bekanntester Repräsentant dieser Fortentwicklung der „traditionellen“ künstlichen Intelligenz ist der IBM-Supercomputer Watson. Er erlangte vor allem dadurch Berühmtheit, dass er 2011 in der US-Quizshow „Jeopardy“ die besten menschlichen Teilnehmer deklassierte. Bei diesem TV-Programm wird sowohl Wissen wie auch die Fähigkeit zum Lösen komplexer Probleme getestet und es gilt daher als guter Praxistest für künstliche Intelligenz.5

[youtube http://www.youtube.com/watch?v=P18EdAKuC1U]

 

Allerdings verging einige Zeit, um auf der Basis dieser Technologie ein praxistaugliches Produkt aufzubauen. 2014 hat IBM die offene Testphase von Watson Analytics gestartet, einer cloudbasierten Lösung zur Übersetzung natürlicher Sprache in Abfragen für Business-Analytics-Anwendungen. Laut IBM müssen Anwender nur noch eine Fragestellung definieren, wie z. B.: „Was sind die Schlüsselfaktoren für meine Produktverkäufe?” Die technisch notwendigen Schritte für die Beantwortung übernimmt dann Watson. Sowohl die Aufbereitung von Daten, Erstellung von Prognosen sowie Visualisierung von Ergebnissen führt er dabei selbstständig durch.6 Unter den 100 ersten Kunden sind viele kleine und mittlere Firmen, die auf der Basis von Watson eigene Kundenlösungen z. B. in der Gesundheitsberatung, IT-Sicherheit oder Reisevermittlung entwickeln.7

Die Natur als Vorbild

Künstliche Intelligenz heißt aber nicht nur, immer mehr Daten immer schneller zu verarbeiten. Stattdessen werden insbesondere neue (nichtlineare) Methoden eingesetzt, um die auf Seite 16 angesprochenen komplexen Zielsetzungen anzugehen. Diese neuen Vorgehensweisen bezeichnet man ebenfalls oft als „sub-symbolisch“, weil sie im Gegensatz zu den „symbolisch“ arbeitenden Expertensystemen nicht mehr darauf angewiesen sind, auf Grundlage formalisierten Fachwissens und daraus gezogener logischer Schlüsse Antworten zu liefern.

Dabei haben sich schon seit einigen Jahrzehnten 3 biologisch motivierte Hauptvorgehensweisen herauskristallisiert: 8

  • Künstliche neuronale Netze – dies sind technische Realisierungen biologisch motivierter Modelle der Informationsverarbeitung in Gehirn und Nervensystem;

[youtube http://www.youtube.com/watch?v=dyD0kNZnaAk]

 

  • Fuzzy-Systeme sie bestehen aus einem Satz natürlich-sprachlicher Regeln, die im Gegensatz zu herkömmlichen Regelsystemen mit unscharfen Aussagen umgehen können (die also nicht wie herkömmliche Rechner Aussagen entweder ein „wahr“ oder „falsch“ zuordnen müssen);
  • Evolutionäre Algorithmen hiermit werden Mechanismen der natürlichen Evolution nachgeahmt, um Such- und Optimierungsaufgaben zu lösen.

Darüber hinaus wurden in den vergangenen Jahren zwei neue Methoden entwickelt, die sich ebenfalls an Vorbildern aus der Biologie orientieren:

  • Schwarmintelligenz – Mechanismen der sozialen Interaktion dienen zur Lösung komplexer technischer Probleme;
  • Künstliche Immunsysteme – nach dem Vorbild der Immunsysteme höherer Lebewesen werden Mechanismen konstruiert, die auf eine Vielzahl von unterschiedlichen und immer wieder neuartigen Aufgaben reagieren müssen.

Da die einzelnen Vorgehensweisen ihre spezifischen Nachteile und Begrenzungen haben, wird in zunehmendem Maße daran gearbeitet, verschiedene Verfahren – wie z. B. Experten-Systeme und neuronale Netze – in „hybriden Systemen“ zu kombinieren, um die jeweiligen Vorteile der einzelnen Methoden effektiver zu nutzen. Diese hybriden Systeme könnten noch einmal zu einer deutlichen Steigerung der allgemeinen Einsatzfähigkeit von künstlicher Intelligenz führen.

Deep Learning und die Renaissance der neuronalen Netze

Die dramatisch verbesserten technischen Rechnerleistungen haben unter dem Oberbegriff „Deep Learning“ seit einigen Jahren insbesondere zu einer Wiederbelebung einer bisher enttäuschenden Entwicklung aus den 80er Jahren geführt, nämlich der künstlichen neuronalen Netze. Diese Rechenverfahren orientieren sich an der Arbeitsweise des Gehirns und simulieren hierzu ein dicht verwobenes Netz aus einfachen Nervenzellen. Wie ihr natürliches Vorbild lernen sie aus der Erfahrung, indem sie die Stärke der simulierten Neuronenverbindungen passgenau anpassen.9 Bisher war diese Vorgehensweise aber nur wenig praxistauglich.

Mit dem neuartigen Deep-Learning-Verfahren wurde gegenüber der bisherigen Vorgehensweise ein entscheidender Fortschritt gemacht: Künstliche neuronale Netze werden jetzt zu Ebenen angeordnet, die immer komplexere Merkmale verwenden. So lassen sich große Datenbestände in Kategorien einteilen, was z. B. das Erkennen von Bildinhalten oder Sprache wesentlich erleichtert. Erste praktische Anwendungen von Deep Learning finden sich bei der Spracherkennungssoftware von Google und Apple (Siri), deren Fehlerquote deutlich geringer ist als bei herkömmlicher Spracherkennung. 9

[youtube http://www.youtube.com/watch?v=n1ViNeWhC24]

 

Eine Schlüsselrolle für Google kann die Akquisition der Firma Deep Mind im Jahr 2014 spielen. Die Software dieser Firma konstruiert quasi ein virtuelles Kurzzeitgedächtnis für neuronale Netze. Dies erleichtert Rechnern wesentlich das selbstständige Erkennen von Zusammenhängen und damit auch das Lernen, weil neue Informationen mit kürzlich erworbenen abgeglichen werden. 10 Die gesteigerte Leistungsfähigkeit wurde kürzlich unter Beweis gestellt, indem sich das Deep-Q Netzwerk 49 Atari Computerspiele selbst beigebracht hat, indem es mittels Versuch und Irrtum selbstständig Situationen bewältigte und dazulernte. 11

Weiter geht es hier:

Die Zukunft hat schon längst begonnen: künstliche Intelligenz (Teil 2: der Alltag)

Die Zukunft hat schon längst begonnen: künstliche Intelligenz (Teil 3: die Folgen)

Quellen:

 

1)         Pamela McCorduck (2004): “Machines Who Think: 25th anniversary edition”; (http://www.pamelamc.com/html/machines_who_think.html ).   (zuletzt abgerufen 30.03.2015)

2)         zitiert nach Daniel Crevier (1993), AI: The Tumultuous Search for Artificial Intelligence, New York, NY

3)         vgl. hierzu ebenfalls Daniel Crevier (1993), AI: The Tumultuous Search for Artificial Intelligence, New York, NY

4)         Edward F. Gehringer (2000). „Ethics in Computing“ ; Vorlesungsunterlagen (http://people.engr.ncsu.edu/efg/379/s00/lectures/wk15/lecture.html) (zuletzt abgerufen 30.03.2015)

5)         John Markoff (2011): „Computer Wins on ‘Jeopardy!’: Trivial, It’s Not”; New York Times 16. 2. 2011 (http://www.nytimes.com/2011/02/17/science/17jeopardy-watson.html) (zuletzt abgerufen 4.04.2015)

6)         Björn Greif (2014): „IBM startet öffentliche Beta von Watson Analytics“ , ZDNet 5. Dezember 2014, http://www.zdnet.de/88213244/ibm-startet-oeffentliche-beta-von-watson-analytics/ (zuletzt abgerufen 4.04.2015)

7)         Steve Lohr (2014): „Goal for Watson: A Business Modelhttp://bits.blogs.nytimes.com/2014/10/07/ibms-watson-starts-a-parade/ New York Times Blog, 7. Oktober 2014 (zuletzt abgerufen 4.04.2015)

8)         Vgl. hierzu: Andreas Kroll (2013): „Computational Intelligence“; Oldenbourg Verlag München; sowie Steve Lohr (2011): „Creating Artificial Intelligence Based on the Real Thing“ New York Times, 5. Dezember 2011 (http://www.nytimes.com/2011/12/06/science/creating-artificial-intelligence-based-on-the-real-thing.html) (zuletzt abgerufen 4.04.2015)

9)         Nicola Jones (2014): „Deep Learning – Wie Maschinen lernen lernen“. Spektrum der Wissenschaft (http://www.spektrum.de/news/wie-maschinen-lernen-lernen/1220451). (zuletzt abgerufen 4.04.2015)

10)     Gordon (2015): „Google DeepMind: Die künstliche Intelligenz“; bei http://www.bluemind.tv/ 10. März 2015 http://www.bluemind.tv/wirtschaft/unternehmen/google-deepmind-die-kuenstliche-intelligenz-174800/ (zuletzt abgerufen 4.04.2015)

11)     Henning Steier: „Deepmind lernt 49 Atari-Spiele“; bei NZZ.ch vom 26.2.2015; http://www.nzz.ch/mehr/digital/deepmind-lernt-49-atari-spiele-1.18491296 (zuletzt abgerufen 4.04.2015)

 

Previous post:

Next post: