[German] Können Computer denken?

Michael L.
6 min readOct 30, 2019

--

„Können Maschinen denken?“ Diese Frage (engl. „Can machines think?“) stellte sich Alan Turing bereits 1950 in seiner bahnbrechenden Arbeit „Computing Machinery and Intelligence“ [Ala50]. Auch heute noch, ist dies ein stark umstrittenes und häufig diskutiertes Thema. Dieses Essay soll sich mit der Frage beschäftigen, inwiefern Computer wirklich denken können.

Photo by Franck V. on Unsplash

Laut Alan Turing hängt die Antwort auf die Frage, ob (digitale) Maschinen, also Computer, denken können, davon ab, wie man „Maschine“ und „denken“ definiert [Ala50]. Da bei gegebener Fragestellung bereits „Computer“ anstatt „Maschine“ verwendet wird, wird im Folgendem von einem (digitalen) Computer als Maschine ausgegangen. Laut Brunjes ist ein Computer eine informationsverarbeitende Maschine, wobei Informationen als kontextabhängige Daten definiert sind [Bru77]. Alan Turing hingegen definiert einen digitalen Computer als eine Maschine, die jede Operation ausführen kann, die auch von einem Mensch ausgeführt werden kann, der vorgeschriebene Rechenregeln befolgt [Ala50].

Ein Computer besteht aus drei Hauptkomponenten [Ala50]:

  • Der Speicher speichert Informationen [Ala50]. Bei einem Menschen entspricht dies dem Papier und das, was er sich merkt [Ala50]. Der Speicher ist wie im echten Leben auch das Papier, begrenzt.
  • Die ausführende Einheit führt die einzelnen Instruktionen, die Teil einer Berechnungs-Operation sind, aus [Ala50]. Die Anweisungen hierfür werden aus einer Anweisungsliste (oder auch Programm) entnommen [Ala50].
  • Die Steuerungseinheit steuert die Ausführung der Anweisungen in der richtigen Reihenfolge [Ala50].

Solche Computer werden als diskrete Zustandsmaschinen bezeichnet, da sie von einem Zustand in den nächsten springen [Ala50].

„Denken“ hingegen ist nicht so einfach zu definieren. Ist denken bereits einfaches Rechnen oder Maschinen-Lernen? Oder denkt eine Maschine erst, wenn sie sich seiner selbst bewusst ist? Alan Turing umgeht die Definition, da er es für sinnvoller hält, eine ähnliche und präzisere Frage zu stellen [Ala51]. Stattdessen formuliert er folgende Art Spiel, bekannt unter dem Namen „Imitation Game“ [OD19]. Einer der Teilnehmer, der Befrager, befindet sich in einem separaten Raum. Seine Aufgabe und auch Ziel des Spiels ist es herauszufinden, welcher der anderen beiden Spieler ein Computer und welcher der Mensch ist [OD19]. Der Befrager identifiziert die beiden anderen Spieler nur mit den Buchstaben „X“ und „Y“ [Ala50]. Dieser stellt Fragen der Form: „Frage an X: Spielt X Schach?“ [OD19]. Spieler „X“ muss diese Frage dann beantworten [OD19]. Das Ziel des Computers ist es, den Befragenden dazu zu bringen, zu glauben, dass der Computer die Person und die Person der Computer ist [OD19]. Dieses Grundprinzip ist bekannt als der „Turing Test“ [OD19], der zeigen soll, ob eine Maschine ein ähnliches Denkvermögen wie der Mensch entwickeln kann.

Seit Turings Veröffentlichung gab es viele Versuche, ein Programm zu entwickeln, das den Test besteht. Die meisten Versuche antworten auf festgelegte Schlüsselwörter mit in einer Datenbank gespeicherten Sätzen. Block, ein damals bekannter Philosoph in dem Themengebiet des Bewusstseins, befasst sich mit dieser Problematik. 1995 schrieb er, dass selbst wenn eine Regierungsinitiative mit hohem Budget ein Programm entwickelt, dass den Turing-Test besteht; Solang über die potentiellen Fragen im vorraus nachgedacht wurde und die Antworten vorgeschrieben werden, sei dieses Programm nicht intelligent [Blo95].

Dies zeigt auch das sogenannte „Chinese Room Argument“, welches von dem Philosophen Searle entwickelt wurde [Col19]: Man stelle sich eine Person in einem isolierten Raum vor, die kein Chinesisch kann [Sea80]. Diese Person hat Zugriff auf eine Liste mit Anweisungen, mit welchen Schriftzeichen man auf gegebene Schriftzeichen antwortet [Sea80]. Durch striktes Befolgen der Anweisungen kann diese Person auf eingehende Symbole, die von außerhalb des Raumes kommen, in der Liste nachschauen und beantworten [Col19]. Für einen Außentstehenden, der nur die ein- und außgehenden Nachrichten beobachtet, entsteht der Eindruck, dass die Person innerhalb des Raumes Chinesisch versteht [Col19]. Damit würde die Person, die auch durch einen Computer ersetzt werden könnte, den Turing-Test bestehen, obwohl diese nicht einmal die Bedeutung der Symbole versteht.

Searle führt zwei Begriffe für die Arten des Verstehens ein: Das syntaktische Verstehen bezieht sich auf Dinge, die in Isolation (wie in dem Chinese Room Argument) verstanden werden können [Sea80]. Als semantisches Verstehen beschreibt er ein grundlegendes Verständnis, das zum Beispiel von Nöten ist, um eine Sprache zu sprechen [Sea80]. Außerdem ordnet er künstliche Intelligenzen (kurz KI) in zwei Kategorien ein: Die starke KI versteht die natürliche Sprache und hat weitere mentale Fähigkeiten ähnlich wie denen der Menschen [Sea80], beherrscht also das semantische Verstehen. Schwache künstliche Intelligenzen können Intelligenz durch syntaktisches Verständnis
nur simulieren, ein Beispiel hierfür ist ELIZA.

„ELIZA“ von Weizenbaum ist ein Computerprogramm, das ein Gespräch mit einem Psychotherapist simuliert. Durch eine Kommandozeile können Sätze in natürlicher Sprache eingegeben werden, auf welche die Software dann mit natürlicher Sprache antwortet [Wei66]. Das Programm analysiert die einzelnen Bestandteile der Eingabe, folgt einfachen Regeln und antwortet dann mit vorgegebenen Sätzen. Am besten funktionierte ELIZA, wenn den Probanden gesagt wurde, dass sie mit ELIZA genau so kommunizieren sollen, wie sie mit einem Therapeuten reden würden [Wei66]. ELIZA funktioniert in dem Anwendungsgebiet eines Psychotherapeuten so gut, da der Therapist Rückfragen stellen kann, die man von einer normalen Person nicht erwarten würde. Zum Beispiel kann ELIZA auf die Aussage „Ich machte eine lange Bootsfahrt“ mit „Erzähl mir mehr über Boote“ antworten, ohne dass man direkt davon ausgeht, dass ELIZA nichts über Boote weiß [Wei66]. Einige wenige Probanden waren überzeugt, dass sie gerade mit einem echten Menschen kommunizieren [Wei66]. Von dem Ziel, den Turing-Test zu bestehen, ist ELIZA jedoch weit entfernt [Moo03]. Dies liegt zu einem großen Teil daran, dass sie auf einige Eingaben unrealistische Antworten gibt. Auch Variation in den Antworten ist nicht genug vorhanden. Jedoch sollte es theoretisch möglich sein, eine verbesserte Version mit einer viel größeren Datenbank, von ELIZA zu entwickeln.

Steve Worswick hat mit seinem „Chatbot“, also ein ähnliches Computerprogramm wie ELIZA, mit dem man über ein Terminal schreiben kann, bereits vier mal den Loebner-Preis für das am menschenähnlichste Softwareprogramm gewonnen [Tho19]. Meiner Meinung nach bestehen Chatbots wie Worswicks „Mitsuku“ den Turing-Test, da sie durchaus reagieren, wie man es von einem Menschen erwarten würde. Dies zeigt zusammen mit dem Chinese Room Argument, dass der Turing-Test kein guter Ersatz für die Frage, ob Computer denken können, ist.

Auch meiner Meinung nach ist die Frage, ob Computer denken können, zu allgemein gestellt. Es gibt zu viele verschiedene Definitionen von dem Wort „Denken“ [Fri14; Mer]. Viele Lexika definieren „Denken“ über rationales Handeln [Fri14; Mer]. Da aber eine KI wie Mitsuku durchaus Rationalität in ihren vorprogrammierten Antworten zum Ausdruck bringen kann, ist mir diese Definition nicht streng genug. Denn es fehlt immer noch das semantisches Verständnis nach Searle.

Vermutlich liegt die Zukunft der starken künstlichen Intelligenz in den neuronalen Netzwerken. Künstliche neuronale Netzwerke sind dem menschlichen Gehirn nachgeahmte Strukturen aus einzelnen Informationsverarbeitungseinheiten (Neuronen) [Hay95]. Durch das Anwenden verschiedener Algorithmen kann ein neuronales Netwerk Wissen speichern („lernen“) [Hay95]. Nicht nur sind diese Netze ein gutes Beispiel, um das menschliche Gehirn besser zu verstehen. Meiner Meinung nach ist der umgekehrte Weg wichtiger: Wenn wir verstehen, wie das menschliche Gehirn funktioniert, dann können wir auch eine KI bauen, die fähig sein wird, menschlich zu denken. Denn unser Gehirn besteht auch nur aus Materie. Es sollte also möglich sein, diese Materie zu replizieren oder zumindest zu simulieren.

Literatur

[Ala50] Alan Turing. „Computing Machinery and Intelligence“. In: Mind LIX.236 (1950), S. 433–460. issn: 0026–4423. doi: 10.1093/mind/LIX.236.433.
[Ala51] Alan Turing. Can Digital Computers Think? 1951. url: http://www.turingarchive.org/browse.php/B/5 (besucht am 06. 05. 2019).
[Blo95] N. Block. The mind as the software of the brain. 1995.
[Bru77] S. Brunjes. „What is a computer?“ In: Journal of Medical Systems 1.1 (1977), S. 79–85. issn: 0148–5598. doi: 10.1007/BF02222879.
[Col19] D. Cole. „The Chinese Room Argument“. In: The Stanford Encyclopedia of Philosophy. Hrsg. von Edward N. Zalta. Metaphysics Research Lab, Stanford University, 2019.
[Fri14] Friedhart Klix. Definition: Denken. 4.12.2014. url: https://www.spektrum.de/lexikon/neurowissenschaft/denken/2728 (besucht am 12. 05. 2019).
[Hay95] S. S. Haykin. Neural networks: A comprehensive foundation. [Nachdr.] New York, NY: Macmillan, 1995. isbn: 0023527617.
[Mer] Merriam-Webster. Definition of THINKING. url: https://www.merriam-webster.com/dictionary/thinking (besucht am 12. 05. 2019).
[Moo03] J. H. Moor. „Turing test“. In: Encyclopedia of computer science. Hrsg. von A. Ralston, E. d. Reilly und D. Hemmendinger. Chichester, West Sussex, England und Hoboken, NJ, USA: Wiley, 2003. isbn: 0470864125.
[OD19] G. Oppy und D. Dowe. „The Turing Test“. In: The Stanford Encyclopedia of Philosophy. Hrsg. von Edward N. Zalta. Metaphysics Research Lab, Stanford University, 2019.
[Sea80] J. R. Searle. „Minds, brains, and programs“. In: Behavioral and Brain Sciences 3.03 (1980), S. 417. issn: 0140–525X. doi: 10.1017/S0140525X00005756.
[Tho19] C. Thompson. May A.I. Help You? 12.05.2019. url: https://www.nytimes.com/interactive/2018/11/14/magazine/tech-design-ai-chatbot.html (besucht am 12. 05. 2019).
[Wei66] J. Weizenbaum. „ELIZA — a computer program for the study of natural language communication between man and machine“. In: Communications of the ACM 9.1 (1966), S. 36–45. issn: 00010782. doi: 10.1145/365153.365168.

--

--

Michael L.
Michael L.

Written by Michael L.

M. Sc Informatics Student in Munich, Germany. Full-stack software engineer and solutions architect.

No responses yet