Die Zukunft hat schon längst begonnen: künstliche Intelligenz (Teil 2: der Alltag)

by Karl-Heinz Thielmann on 2. Juli 2015

Fortsetzung des Beitrags vom 30. Juni

 

Künstliche Intelligenz ist heute in vielerlei Hinsicht schon im Alltag vorhanden und hat eine hohe Bedeutung bekommen, was der Öffentlichkeit nur teilweise bewusst ist:

  • Das Durchforsten des Internets oder von großen Archiven ist heute nicht mehr vorstellbar ohne Suchprogramme, die wiederum auf Algorithmen beruhen.
  • Ein Großteil der Umsätze an den Wertpapiermärkten wird derzeit schon von selbstständig agierenden Handelsprogrammen durchgeführt. Hierbei ist zu unterscheiden zwischen dem sog. Hochfrequenzhandel, bei dem es darum geht, Preisunterschiede zwischen gleichartigen Wertpapieren durch Arbitrage auszunutzen; sowie Programmen des quantitativen Portfoliomanagements, bei denen Algorithmen selbstständig die Finanzmärkte nach Daten-Mustern absuchen, diese blitzschnell auswerten und darauf Trading-Strategien aufbauen.
  • Darüber hinaus – und weitgehend von der Öffentlichkeit unbemerkt – werden nicht-literatische Texte zunehmend von Algorithmen erstellt und ausgewertet. Philip M. Parker, ein Management-Professor an der französischen Business School Insead, hat schon vor einiger Zeit ein algorithmisches System zur Texterstellung entwickelt und sich patentieren lassen. Hiermit hat er über eine Million verschiedene Fachbücher geschrieben, von denen z. B. in Deutschland über 100.000 bei Amazon erhältlich sind. Presse-Texte werden in zunehmendem Maße von Algorithmen generiert; zumindest wenn es um die Verarbeitung von Daten geht. Haupteinsatzgebiete sind Wetter, Sport, Wirtschaft und Finanzen. Associated Press z. B. veröffentlicht in jedem Quartal 3.000 Analysen von Finanzberichten, die ein Wordsmith-Algorithmus innerhalb weniger Minuten nach der Veröffentlichung erstellt. Die Los Angeles Times nutzt den Algorithmus Quakebot für geologische Berichte und kann so Texte zu Erdbeben schneller veröffentlichen als Konkurrenten. Nach Angaben der Softwarefirma Automated Insights wurden 2014 über 1 Milliarde Texte von ihren Algorithmen geschaffen. Wettbewerber Narrative Science hat prognostiziert, dass in 10 Jahren bis zu 90% aller Presse-Texte von „Robo-Journalisten“ kommen könnten. 1
  • Bis zur NSA-Affäre ebenfalls relativ unbemerkt von der Öffentlichkeit durchsuchen Computeralgorithmen der Geheimdienste das Internet, um Informationen über Aktionen potenzieller Staatsfeinde zu erlangen. Hierüber ist trotz der jüngsten Enthüllungen immer noch wenig Konkretes bekannt. Eine Zahl allerdings, die die Dimensionen erahnen lässt, ist das Investitionsvolumen von 2 Mrd. US$, das die NSA 2012 für den Bau eines neuen Zentrums für künstliche Intelligenz mit einem 512 Qubit Quantum Computer veröffentlicht hat.2
  • Mit dem 2010 entdeckten Stuxnet-Wurm wurde das erste Mal ein Computer-Virus identifiziert, der auf künstlicher Intelligenz basierte.3 Auch wenn im Detail so gut wie nichts bekannt ist, so kann man doch davon ausgehen, dass ähnliche bzw. weiterentwickelte Viren viele Computersysteme befallen haben und sie entweder ausspionieren oder unbemerkt Schaden anrichten.

Von den im ersten Teil dieser Beitragsreihe formulierten Anforderungen für künstliche Intelligenz erfüllen die diese Lösungen normalerweise aber nur 2: komplexe Situationen zu erfassen und zu analysieren; sowie Werturteile zu fällen und auf deren Basis Entscheidungen zu treffen. Wie sich in der Praxis der Finanzmarkt-Handelsprogramme zeigt, passieren gerade beim Treffen von Entscheidungen immer wieder gravierende Pannen, die schwerwiegende Konsequenzen mit sich bringen können. Handelsprogramme sind gelegentlich schon außer Kontrolle geraten wie z. B. beim „Flash-Crash“ im Mai 2010. Ein Softwarefehler führte 2012 bei Knight Capital innerhalb weniger Minuten zu Handelsverlusten von über 460 Mio. US$.

[youtube http://www.youtube.com/watch?v=VRET0RRa2Gs]

 

Es kann auch auf der Basis manipulierter Daten zu Fehlentscheidungen kommen. Dies ist bei sog. „Hash-Crash“ 2013 passiert, als es eine Twitter-Falschmeldung über einen Bombenanschlag auf das Weiße Haus gab. Handelsprogramme generierten sofort Verkaufsorders, was für einen kurzfristigen, sehr starken Kurseinbruch sorgte.4

Die Probleme hängen nicht zuletzt damit zusammen, dass insbesondere die Anforderung, für neuartige Probleme kreative Lösungen zu finden, nach wie vor große Schwierigkeiten macht. Zudem vertrauen Algorithmen ihren Daten blind und hinterfragen sie nicht. Sie sind daher im Grunde noch anfälliger für Manipulationen als Menschen.

In Hinblick auf die Fehlerquelle Daten erweist sich ebenfalls als entscheidende Schwäche, dass Computer bisher nicht selbstständig mit ihrer Umwelt kommunizieren. Sie sind deshalb ihren vorgegebenen Datenquellen hilflos ausgeliefert und können fragwürdige Daten nicht selbstständig überprüfen, wie es z. B. 2013 menschliche Börsenhändler taten, als sie einfach in Washington anriefen und nachfragten, ob es tatsächlich eine Bombe im Weißen Haus gab.

Das selbstständige Lösen von Problemen und die verbesserte Kommunikation stehen aber nicht nur deshalb im Zentrum der aktuellen Forschung, weil mit ihnen bisherige Schwächen ausgemerzt werden. Weitere Erkenntnisse versprechen Fortschritte in Hinblick auf zwei weitere neue Produktkategorien: virtuelle Assistenten und fortgeschrittene Roboter.

Virtuelle Assistenten und Robotertechnik: die nächsten Schritte

Der Begriff „virtuelle Assistenz“ ist etwas verwirrend, da er in früheren Jahren vorwiegend für outgesourcte Bürotätigkeiten verwendet wurde. Dennoch bürgert er sich immer mehr als Umschreibung für Dienstleistungen ein, die künstliche Intelligenz vorwiegend über das Internet erbringt.5 Sie kombinieren ein Expertensystem mit einem Dialogsystem für die Kommunikation zu Menschen, das zumeist aus einem Avatar (einem künstlichen Charakter, der menschliche Emotionen und Rollen imitieren kann) besteht. Heutzutage werden sie schon vielfach im Rahmen der Kundenbetreuung eingesetzt, bearbeiten jedoch bisher nur relativ standardisierte Anfragen. Deswegen können sie traditionelle Callcenter zwar entlasten, aber nicht ersetzen.

Beispiele für relativ einfache virtuelle Assistenten sind auch Siri, Google Now oder Cortana . Sie gehören inzwischen zur Standardausstattung von Smartphones, um ihren Benutzern eine vereinfachte und erweiterte Benutzung zu ermöglichen. Allerdings sind ihre Fähigkeiten insbesondere zum Lernen noch sehr begrenzt.

[youtube http://www.youtube.com/watch?v=__G0Msn1UaM]

 

Man kann diese virtuellen Assistenten als Vorstufe zu leistungsfähigeren Systemen ansehen, deren verbesserte Fähigkeiten zur Problemerkennung und -lösung die Substitution von menschlichen Sachbearbeitern ermöglichen werden. Pluspunkte der künstlichen Intelligenz sind Zuverlässigkeit und Schnelligkeit, während die Kreativität im Vergleich zum Menschen einstweilen eine Schwäche bleiben wird. Gut bezahle Experten-Stellen, bei denen es auf Spezialwissen und Genauigkeit ankommt, aber nicht auf Kreativität, sind typisch für bürokratische Organisationen. Sie sind durch das Vordringen virtueller Assistenten besonders gefährdet. Für Behörden und verwaltungsintensive Unternehmen wie z. B. Finanzinstitute eröffnet sich ein erhebliches Einsparpotenzial.

Weiterhin werden neue Formen von Robotern ermöglicht, die selbstständig komplexe Aufgaben durchführen und sowohl mit Menschen wie auch mit anderen Robotern kommunizieren. Da künstliche Intelligenz jedoch nur ein Faktor bei der fortschreitenden Entwicklung „denkender Maschinen“ ist, werden diesem Thema den folgenden Wochen von eigene Beitrag gewidmet.

Ein außerhalb der USA nach wie vor unterschätztes Thema

Künstliche Intelligenz ist an der Börse schon seit einigen Jahren ein Thema. Allerdings wird sie meist als Unterthema des „Internet der Dinge“ bzw. „Web 3.0“ (nach Web 1.0 für das Internet und web 2.0 für soziale Netzwerke) angesehen.6 Wenn Aktien von Unternehmen betrachtet werden, die mit künstlicher Intelligenz zu tun haben, so geschieht dies meist unter dem Aspekt, dass ihre unmittelbare Umsetzung in kurzfristig vermarktbare Produkte in den Vordergrund gestellt wird und weniger die langfristigen Implikationen.

Nach außen hin erscheinen derzeit vor allem Google und IBM als führend im Bereich künstliche Intelligenz, wobei ihre jeweiligen Forschungsschwerpunkte sehr stark mit den bisherigen Geschäftsfeldern zu tun haben: Such-Algorithmen bei Google bzw. Supercomputer bei IBM. Bei Apple und Microsoft wird ebenfalls intensiv und mit hohem Aufwand an künstlicher Intelligenz geforscht; wobei Apple anscheinend an einer Fortentwicklung der bisherigen Spracherkennungssoftware Siri arbeitet.18Andere US-IT-Konzerne wie Amazon oder Facebook haben ebenfalls große Projekte gestartet, bei denen der Schwerpunkt in einer verbesserten Auswertung von Nutzerdaten liegt, um spezifische Verhaltensmuster besser als heute zu identifizieren.

Samsung hat Luc Julia, den früheren Leiter der Siri-Forschung von Apple abgeworben und 100 Mio. US$ in ein Researchzentrum in Menlo Park, Kalifornien investiert. Dort wird an einem System namens SAMI gearbeitet, dass insbesondere in Hinblick auf die Verarbeitung verschiedenster Sensordaten ausgerichtet wird.8 Es ist bezeichnend, dass Samsung ausgerechnet im Herz von Silicon Valley forscht. Dort konzentrieren sich – wie bei vielen andern IT-Richtungen auch – viele führende Köpfe.

Im Gegensatz zu den USA oder Asien wird das Thema in Europa hingegen stiefmütterlich behandelt und massiv unterschätzt. An der Universität Zürich schloss man 2014 sogar das Labor für künstliche Intelligenz (AI Lab) von Professor Rolf Pfeifer nach dessen Emeritierung, wodurch eines der wenigen Zentren der Forschung in Europa aufgelöst wurde.9

 

Der Beitrag wird nächste Woche mit einer Analyse der Konsequenzen künstlicher Intelligenz fortgesetzt.

 

 

Quellen:     

1)  Shelley Podolny (2015): “If an Algorithm Wrote This, How Would You Even Know?” The New York Times, 8. März 2015 http://www.nytimes.com/2015/03/08/opinion/sunday/if-an-algorithm-wrote-this-how-would-you-even-know.html   (zuletzt abgerufen 4.04.2015)

2)  Anonymer Autor(2012): “NSA Building A $2 Billion Quantum Computer Artificial Intelligence Spy Center“; auf Brain-Computer 12 Mai 2012; http://mind-computer.com/2012/05/13/nsa-building-a-2-billion-quantum-computer-artificial-intelligence-spy-center/ (zuletzt abgerufen 4.04.2015)

3)  John Markoff (2014): “Study to Examine Effects of Artificial Intelligence”; The New York Times 16. 12.2014 http://www.nytimes.com/2014/12/16/science/century-long-study-will-examine-effects-of-artificial-intelligence.html (zuletzt abgerufen 4.04.2015)

4)  Vgl. hierzu Yvonne Hofstetter (2014): „Big Data, Big Money“; Kapitel Drei aus „Sie wissen alles: Wie intelligente Maschinen in unser Leben eindringen und warum wir für unsere Freiheit kämpfen müssen“ C. Bertelsmann Verlag München; sowie Arash Massoudi: „Knight Capital glitch loss hits $461m“; ft.com vom 17. Oktober 2012; http://www.ft.com/intl/cms/s/0/928a1528-1859-11e2-80e9-00144feabdc0.html (zuletzt abgerufen 4.04.2015)

5)  Stephen Cave: „Rise of the machines“; Financial Times Weekend 21. März 2015; Seite 10

6)  Krim Delko (2014): „Der Computer als intelligente Maschine“; Neue Züricher Zeitung 14.8.2014 http://www.nzz.ch/finanzen/der-computer-als-intelligente-maschine-1.18363342 (zuletzt abgerufen 4.04.2015)

7)  Steven Levy (2014): “Siri’s Inventors Are Building a Radical New AI That Does Anything You Ask” in Wired, 08.12.14  http://www.wired.com/2014/08/viv/ (zuletzt abgerufen 4.04.2015)

8)  R. Colin Johnson (2013): “Samsung Tips $100 Million IoT Strategy – Apple’s Former Siri Director Developing SAMI” EE Times 11.11.2013 http://www.eetimes.com/document.asp?doc_id=1320045 (zuletzt abgerufen 4.04.2015)

9)  Robin Schwarzenbach (2014): “Roboter an der Uni Zürich unerwünscht“ Neue Züricher Zeitung 19.10.2014 http://www.nzz.ch/aktuell/startseite/roboter-unerwuenscht-1.18407163 (zuletzt abgerufen 4.04.2015)

 

Previous post:

Next post: