Zum Inhalt springen

#Wissenschaft

Künstliche Intelligenz: Zur Geschichte der Algorithmen und wie sie mit unserem Leben interagieren

Dr. Tobias Knuth, Stipendiat bei Postdoc Plus

Einleitung

Die Landwirtschaft veränderte die Lebensführung der Menschheit in Jahrtausenden, die industrielle Revolution in Jahrhunderten. Die digitale Revolution erleben wir in Jahrzehnten. Einer ihrer interessantesten Aspekte ist der Fortschritt im Bereich der künstlichen Intelligenz (KI). Der vermehrte Einsatz von KI in verschiedensten Bereichen unserer Gesellschaft erfordert, sich mit den Grundlagen vertraut zu machen, um zu verstehen, auf welche vielfältige Weise Algorithmen mit unserem Leben interagieren. Sprachgesteuerte Assistenten, Chatbots, autonomes Fahren und automatisierte Produktempfehlungen sind nur ein paar der Bereiche, in denen eine unmittelbare Berührung mit KI-Diensten möglich ist.

Geschichte der KI

Die Geschichte der KI ist vor allem eine Geschichte der Mathematik und später der Informatik. Algorithmen sind Instruktionen zur Ausführung von Operationen. Der Mathematiker Al-Khwarizmi bestimmte den Erdumfang, indem er die Distanz maß, die seine Anhänger in dem Zeitraum zurücklegten, innerhalb dessen sich der Winkel zur Sonne um ein Grad verändert hatte — und erreichte eine seinerzeit erstaunliche Präzision: Al-Khwarizmi veröffentlichte im 9. Jahrhundert ein Buch über das Lösen von Gleichungen. Das Buch, Al-jabr, wurde Namensgeber für die Algebra und sein Autor, Al-Khwarizmi, für den Algorithmus.

Die Entwicklung des Webstuhls gilt als einer der Meilensteine und als frühe Voraussetzung der weiteren maschinellen Entwicklung; die in frühen Computern verwendeten Lochkarten wurden zweihundert Jahre zuvor bereits für Webstühle genutzt. Charles Babbage stellte seine mechanische Difference Engine zur Auswertung von polynomialen Funktionen 1833 der Öffentlichkeit vor, und später entwickelte er gemeinsam mit Ada Lovelace die Analytical Engine, eine universelle Rechenmaschine (Baumgärtel 2017). Charles Babbage wird oft als Erfinder des ersten Computers bezeichnet und Ada Lovelace als erste Programmiererin. Zwar stellte Babbage keine der Maschinen zu Lebzeiten fertig, sie wurden jedoch zur Grundlage für die darauffolgende Forschung und letztlich für den Computer. Im 20. Jahrhundert entwickelte Alan Turing die nach ihm benannte universelle Rechenmaschine, die Turing-Maschine. Mit dem Kriterium der Turing-Vollständigkeit wird heutzutage beschrieben, inwieweit ein System in der Lage ist, beliebige Algorithmen auszuführen.

Der Begriff der künstlichen Intelligenz wurde 1956 von John McCarthy auf der ersten akademischen Konferenz dieses neuen Feldes eingeführt. (Smith et al. 2006) Die Frage, ob Computern über die logische Verarbeitung hinaus das Denken beigebracht werden kann, reicht allerdings weiter zurück und ist nicht nur eine technische, sondern vor allem eine philosophische. Sind die Akteure intelligent, wenn sich ihre Handlungen nicht von denen von Menschen unterscheiden lassen? Um diese Frage drehen sich unter anderem der Turing-Test (Turing 1950) und Gedankenexperimente wie das chinesische Zimmer (Searle 1980).

Der intellektuelle Wettbewerb zwischen Mensch und Maschine wurde lange Zeit auf dem Schachfeld ausgetragen. 1997 gewann der von IBM entwickelte Computer Deep Blue gegen den Schachweltmeister Garry Kasparov. Der Sieg der künstlichen Intelligenz im chinesischen Spiel Go kam erst etwa 20 Jahre später: 2017 besiegte das von Google entwickelte AlphaGo den Weltranglistenersten Ke Jie. Beide Spiele sind für Computer eine besondere Herausforderung wegen der hohen Komplexität und der damit verbundenen Vielzahl an möglichen Zügen. Interessant ist, dass manche Probleme für Computer vergleichsweise leicht und für Menschen schwierig sind; dazu gehören auf klaren Regeln basierende Spiele wie Schach. Hingegen ist für Menschen eine der natürlichsten Aufgaben, Gegenstände wahrzunehmen, zu greifen und zu bewegen. Diese Koordinationsaufgabe stellt heutige KI-Systeme vor große Herausforderungen. Insofern ist aus menschlicher Perspektive für Maschinen manchmal leicht, was schwer wirkt, und schwer, was leicht wirkt.

Der Begriff der künstlichen Intelligenz ist in doppelter Hinsicht kompliziert, da bereits das Wort Intelligenz an sich Fragen aufwirft. Zur Vorstellung von menschlicher Intelligenz existieren viele Definitionen (Fisseni 1998): von der Fähigkeit, richtige Urteile zu bilden und aus Erfahrungen zu lernen, bis zu Modellen, die Intelligenz als Verbund verschiedener Komponenten wie Wissen und Verständnis definieren. Der Informatiker und Gesellschaftskritiker Joseph Weizenbaum hebt hervor, dass die Vorstellung in die Irre führe, man könne Intelligenz auf einer linearen Skala wie mit dem IQ abbilden. Zumindest solle Intelligenz nicht absolut, sondern innerhalb eines Bezugsrahmens betrachtet werden (Weizenbaum and Rennert 1987). Philosophische Fragen über die Grenzen der Berechenbarkeit und des Denkens diskutiert Douglas Hofstadter in seinem Buch Gödel, Escher, Bach (Hofstadter 1999).

Künstliche Intelligenz bezeichnet ein weites Feld, aber eines der einflussreichsten Teilgebiete ist das maschinelle Lernen. Die Verwendung dieses Begriffs lässt zwar viele spannende Bereiche der KI außen vor, reduziert aber auch die begriffliche Komplexität und erlaubt, sich auf eine der zentralen Herausforderungen der KI zu konzentrieren. In den Worten von John Searle, der zwischen schwacher und starker KI (engl. AI) unterscheidet:

According to weak AI, the principal value of the computer in the study of the mind is that it gives us a very powerful tool. […] But according to strong AI, the computer is not merely a tool in the study of the mind; rather, the appropriately programmed computer really is a mind. (Searle 1980)

Beim maschinellen Lernen steht vor allem mathematische Optimierung im Vordergrund. Eine formale Definition maschinellen Lernens lautet:

A computer program is said to learn from experience E with respect to some class of tasks T and performance P, if its performance at tasks in T, as measured by P, improves with experience E. (Mitchell 1997)

Die Definition von Mitchell setzt voraus, dass Lernen ein quantifizierbarer Prozess ist. In diesem Sinne ist der Lernerfolg die Fähigkeit, historische Daten als Wissen auszuwerten und in die Zukunft zu projizieren. Ob die Zukunft dabei tatsächlich in der Vergangenheit liegt, um die theoretische Leistungsfähigkeit eines Systems zu bestimmen, unmittelbar bevorsteht oder Jahre in der Zukunft, spielt für den Computer keine Rolle. Auf diese Weise kann die Prognosequalität von Algorithmen systematisch getestet werden, indem Vorhersagen für vergangene Ereignisse überprüft werden, für welche bereits Ergebnisse vorliegen.

Lernende Algorithmen

Maschinelles Lernen entstand nicht im Vakuum; insbesondere mit der Statistik teilt maschinelles Lernen diverse Methoden. Eine klare Abgrenzung ist schwierig, aber manche Autoren ordnen der Statistik eher Hypothesentests zu und maschinellem Lernen die Idee der Suche nach der besten Lösung im Raum der möglichen Modellkonfigurationen (Witten, Frank, and Hall 2011).

Die ersten KI-Systeme waren Expertensysteme, welche auf definierten oder erlernten Regeln basieren, die heute weit verbreitet sind, aber in der Forschung zu künstlicher Intelligenz gegenüber Trends wie dem Deep Learning, einer Variante neuronaler Netze, an Bedeutung verloren haben.
Traditionelle Algorithmen verarbeiten einen Input zu einem Output. Bei maschinellem Lernen wird oft ein Modell mithilfe von Input und Output trainiert, die zukünftigen Inputs den richtigen Outputs zuzuordnen. Diese Darstellung ist allerdings eine recht starke Vereinfachung.

Überwachte Lernalgorithmen wie Regressionen, Entscheidungsbäume und neuronale Netze nutzen vorhandene Datensätze beispielsweise aus der Vergangenheit, um eine Beziehung zwischen den unabhängigen und abhängigen Variablen zu erlernen. Nicht überwachte Algorithmen beinhalten beispielsweise Ausreißer-Analysen und Clustering-Techniken. Alternative Formen sind darüber hinaus semi-überwachtes Lernen sowie Reinforcement-Learning.

Lernende Systeme können auf unterschiedliche Art strukturiert werden, aber bestimmte Komponenten treten immer wieder auf: das Modell, welches das Wissen repräsentiert, eine Zielfunktion, welche die Güte der Prognosen bestimmt, und eine Lernfunktion, welche die Modellparameter im Hinblick auf die Zielfunktion optimiert.

Bei der Regression sind die Koeffizienten der Variablen die Träger des Wissens, beim neuronalen Netz sind es die gewichteten Verbindungen der Neuronen. Das erlernte Wissen von Entscheidungsbäumen wird über Fallunterscheidungen an den Verzweigungen des Baumes abgebildet.
Das Lernen funktioniert bei diesen drei Verfahren ganz unterschiedlich: Eine lineare Regression lässt sich ohne eigentlichen Lernvorgang analytisch lösen; beim neuronalen Netz wird das Feedback der Klassifikation rückwärts durch das Netz propagiert, und dabei werden die Gewichte der Verbindungen angepasst (engl. Backpropagation). Entscheidungsbäume bauen sich schrittweise auf, indem die Frage beantwortet wird, nach welchem Kriterium Daten unterteilt werden sollten, um eine ideale Unterscheidbarkeit zu gewährleisten.

Der Autor und Physiker Arthur C. Clarke sagte einmal: “Any sufficiently advanced technology is indistinguishable from magic.” (Oxford Reference https://bit.ly/2Fj5tQY) Moderne KI-Systeme werden immer komplexer und schwieriger zu verstehen. Während sich die Entscheidungen regelbasierter Expertensysteme eindeutig nachvollziehen lassen, erschweren Verfahren wie das Deep Learning, die Entscheidungsprozesse zu verstehen.

Gestaltung von KI

Die Forschung zu KI steht vermutlich erst am Anfang, und trotzdem werden KI-basierte Systeme längst in vielen Bereichen unserer Gesellschaft eingesetzt. Herausforderungen liegen in verschiedensten Bereichen, die beim Einsatz von KI-Systemen zusammenkommen: Welche ethischen Fragen sollten diskutiert werden? Wie müssen Gesetze im Umgang mit eigenständig handelnden Systemen formuliert werden? Was bedeutet Eigenständigkeit überhaupt? Welche technischen Anforderungen an die Sicherheit solcher Systeme müssen erfüllt werden? In einem Artikel mit dem Titel nennen die Autoren das folgende Beispiel: “If self-driving cars cut the roughly 40,000 annual U.S. traffic fatalities in half, the car makers might get not 20,000 thank-you notes, but 20,000 lawsuits.” (Russell, Dewey, and Tegmark 2015) Selbst wenn selbstfahrende Autos die Unfallraten senken können, stellt sich die Frage, wer die Verantwortung für die von den Fahrzeugen verursachten Unfälle trägt. Welche Rolle spielen Entwickler, Hersteller, Betreiber und die Gesellschaft? Aus welcher Perspektive werden die Ereignisse bewertet? Auch konkrete, technische Anforderungen werden den Autoren zufolge an Bedeutung gewinnen: Je mehr Aufgaben KI-Systeme übernehmen und je wichtiger diese Aufgaben sind, desto größer müssen die Anstrengungen sein, diese Systeme sicher und verlässlich zu gestalten. Das bedeutet einerseits, dass sie gegen Angriffe bzw. vor Missbrauch geschützt sein müssen, und andererseits, dass die Systeme richtig funktionieren und das Richtige tun. Da aber maschinelles Lernen statistische Unsicherheit beinhaltet, sind auch bei Systemen, die richtig funktionieren, Fehler nicht ausgeschlossen. Ein sich entwickelnder Forschungszweig ist Explainable AI (Abdul et al. 2018) mit dem Ziel, die Entscheidungen von KI-Algorithmen besser verstehen zu können.
Niemand weiß, zu welchen Entwicklungen die Forschung zu und der Einsatz von künstlicher Intelligenz noch führen wird. Wahrscheinlich ist aber, dass die Gesellschaft immer stärker von diesen Systemen durchdrungen werden wird. Eine Herausforderung wird daher sein, ein gemeinsames Verständnis der zugrundeliegenden Technologien zu bilden, um darüber diskutieren und ein reflektiertes Urteil bilden zu können.


Abdul, Ashraf, Jo Vermeulen, Danding Wang, Brian Y. Lim, and Mohan Kankanhalli. 2018. “Trends and Trajectories for Explainable, Accountable and Intelligible Systems: An HCI Research Agenda.” In Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems - CHI ’18, 1–18. Montreal QC, Canada: ACM Press. https://doi.org/10.1145/3173574.3174156.

Baumgärtel, Tilman, ed. 2017. Texte zur Theorie des Internets. Reclams Universal-Bibliothek, Nr. 19476. Ditzingen: Reclam.

Fisseni, Hermann-Josef. 1998. Persönlichkeitspsychologie: Auf der Suche nach einer Wissenschaft: Ein Theorienüberblick. 4., überarbeitete und erw. Aufl. Göttingen; Seattle: Hogrefe.

Hofstadter, Douglas R. 1999. Gödel, Escher, Bach: An Eternal Golden Braid. 20th anniversary ed. New York: Basic Books.

Mitchell, Tom. 1997. Machine Learning. McGraw-Hill Series in Computer Science. Singapore: McGraw-Hill.

Russell, Stuart, Daniel Dewey, and Max Tegmark. 2015. “Research Priorities for Robust and Beneficial Artificial Intelligence.” AI Magazine 36 (4): 105. https://doi.org/10.1609/aimag.v36i4.2577.

Searle, John R. 1980. “Minds, Brains, and Programs.” THE BEHAVIORAL AND BRAIN SCIENCES, 8.

Smith, Chris, Brian McGuire, Ting Huang, and Gary Yang. 2006. “The History of Artificial Intelligence.”

Turing, A. M. 1950. “I.—COMPUTING MACHINERY AND INTELLIGENCE.” Mind LIX (236): 433–60. https://doi.org/10.1093/mind/LIX.236.433.

Weizenbaum, Joseph, and Udo Rennert. 1987. Die Macht der Computer und die Ohnmacht der Vernunft. 2. Aufl. Frankfurt am Main: Suhrkamp.

Witten, Ian H., Eibe Frank, and Mark A. Hall. 2011. Data Mining: Practical Machine Learning Tools and Techniques. 3rd edition. The Morgan Kaufmann Series in Data Management Systems. Burlington, Massachusetts: Morgan Kaufmann Publishers. https://goo.gl/BJX1bp.

Artikel kommentieren