Douglas Hofstadter
Douglas Hofstadter
© futurezone

Interview

"Ich bin immer froh, wenn Computer scheitern"

Douglas Hofstadter ist Physiker, Informatiker und Kognitionswissenschaftler, derzeit tätig an der Universität von Indiana. In seinem Buch "Gödel, Escher, Bach" hat er 1979 auf verständliche und unterhaltsame Art beschrieben, wie komplexe Phänomene wie Bewusstsein aus einfachsten Prozessen entstehen können. Das Buch wurde 1980 mit dem Pulitzerpreis ausgezeichnet.

Als Forscher arbeitete er unter anderem an der Erforschung des Denkens mit Computerprogrammen. Hofstadter beschäftigt sich auch mit künstlicher Intelligenz. Im futurezone-Interview erklärt er, warum ihn die Fortschritte auf dem Gebiet der lernenden Maschinen heute mehr Sorge bereiten, als noch zu Anfang seiner Karriere. Hofstadter hält am 28.11. einen Vortrag in Wien (siehe unten).

futurezone: Woran forschen Sie derzeit?
Douglas Hofstadter: Wir versuchen, Computermodelle des menschlichen Denkens anzufertigen. Wir bewegen uns dabei in einer einfachen Mikrowelt, die beispielsweise aus Gruppen von Buchstaben bestehen kann. Damit untersuchen wir Analogien, die ein Grundbaustein des menschlichen Denkens sind. Das Gehirn nutzt Analogien in jeder Sekunde, etwa um ein bestimmtes Wort auszuwählen. Es zieht Parallelen zu Situationen, in denen andere dieses Wort verwendet haben. So lernen Menschen. In unserer Mikrowelt geben wir etwa die Folge “aus ABC wird ABD” vor und fragen, was aus der Folge PPQQRRSS werden könnte. Es gibt mehrere Möglichkeiten, aber manche sind schöner als andere. Ästhetik spielt für Analogien eine große Rolle. Wir entwickeln Programme, die solche Aufgaben lösen können.

Sie beschäftigen sich schon lange mit dem Thema Intelligenz. Hat sich Ihr Ansatz verändert?
Als ich 1977 an der Universität zu arbeiten begann, habe ich mich als KI-Forscher beschrieben. Einige Jahre später hätte ich mich nicht mehr so bezeichnet. Das Forschungsgebiet hatte sich verändert. Für mich war es immer wichtig, das menschliche Denken nachzuahmen. Für viele Kollegen war das aber nie ein Ziel. Sie hatten daran kein Interesse und waren auf schnelle Erfolge aus. Als Deep Blue 1997 Kasparov im Schach besiegt hat, war das für mich traurig. Immerhin hatte das Programm aber nichts mit menschlichem Denken zu tun. Es hat rein auf Rechenleistung gesetzt. Hätte ein Programm, das wirklich denkt, den Großmeister besiegt, hätte es mich härter getroffen.

KI-Systeme können lernen, aber langsamer als Kinder. Sind Freude und Emotionen hier die entscheidenden Unterschiede?
Emotionen fehlen noch in der künstlichen Intelligenz. Das muss aber nicht so bleiben. Vielleicht kommt das mit besseren Programmen von selbst. Man kann einer Maschine schon Ziele geben. Für Deep Blue war das, den König zu schlagen. Das ist aber noch weit weg von den Gefühlen, die Menschen motivieren.

Sie haben sich schon in Ihrem Buch “Gödel, Escher, Bach” mit Intelligenz und deren Repräsentation in Maschinen befasst. Wie schätzen Sie die Fortschritte ein?
In dem Buch habe ich unter anderem über Bongard-Rätsel gesprochen. Ein ehemaliger Doktorand hat ein Programm geschrieben, das einige davon lösen kann, wenn auch nicht sehr viele. Ich bin immer froh, wenn die Computer an Dingen scheitern, die für Menschen einfach - oder auch etwas schwieriger - sind. Ich hätte gerne, dass dieser Unterschied noch eine Weile überlebt. Ich bin sehr beunruhigt von den Fortschritten, die wir in den letzten Jahren gesehen haben. Das macht mich traurig und ängstlich.

In die KI-Forschung wird derzeit viel investiert. Menschliches Denken scheint aber nicht im Fokus zu sein.
Es gibt Leute, die das anders sehen würden. Etwa Geoffrey Hinton, der einer der wichtigsten KI-Forscher ist. Er hat das Konzept des “Deep Learning” erfunden und würde wohl argumentieren, dass dieses maschinelle Lernen sehr wohl das menschliche Denken nachahmt. Künstliche neuronale Netzwerke sind aus dieser Sicht wie das menschliche Gehirn. Es ist sehr imponierend, wie gut diese Programme sind, Alpha Go zum Beispiel oder selbstfahrende Autos. Ich bin nicht sicher, wie weit wir noch weg sind von einer wirklichen Nachahmung der menschlichen Intelligenz.

Alpha Go ist beeindruckend, das Programm lernt aber behäbig, nicht so intuitiv wie ein Mensch.
Wenn ein Programm Muster wahrnehmen kann, dann hat es in einem gewissen Sinn auch Intuition. Ich bin kein Fan dieser künstlichen Netzwerke, aber ich befinde mich in der komischen Situation, dass ich Dinge verteidigen muss, die ich hasse. In den 90er Jahren habe ich ein Programm entdeckt, nämlich “Emmy” von David Cope, das Musik komponierte und dabei versuchte, die Stile von Komponisten wie Chopin oder Bach zu imitieren. Sehr oft waren die Ergebnisse lächerlich. Aber einige Stücke waren ziemlich imponierend. Ich hasste Emmy, aber um wissenschaftlich ehrlich zu bleiben, habe ich bei Vorträgen eine Art Turing-Test durchgeführt. Ich ließ einen Pianisten einige Stücke spielen, einige von Bach oder Chopin und einige im selben Stil von Emmy. Das Publikum musste dann darüber abstimmen, welche “echt” waren. Und manchmal hat das Publikum sich geirrt.

Ist der Unterschied zwischen Mensch und KI nur noch quantitativ?
Das weiß ich nicht. Es würde mich sehr freuen, wenn es auch einen qualitativen Unterschied gäbe. Vor 20 bis 30 Jahren war ich überzeugt, dass KI immer schwächer sein würde, als die menschliche Intelligenz. Das war für mich ein Axiom. Dann sind diese komischen Sachen passiert, von Emmy über Deep Blue bis zu selbstfahrenden Autos. Das war jedes Mal ein Schock. Noch haben wir das menschliche Denken nicht erreicht und ich hoffe, dass wir noch weit davon entfernt sind. Aber ich bin mir nicht mehr so sicher wie früher.

Die meisten KI-Forscher sehen keine grundlegenden Hürden. Neurowissenschaftler sind da skeptischer und sagen, dass wir viel zu wenig über das Gehirn wissen, um es in Programmen zu kopieren.
Dass die Informatiker hier optimistischer - oder aus meiner Sicht pessimistischer sind - ist interessant. Die Neurowissenschaftler glauben, dass sie das Denken nicht verstehen. Sie verstehen das Gehirn im Kleinen, aber Denken ist etwas Anderes. Für die Informatiker ist es umgekehrt, sie glauben, dass sie genug wissen. Jetzt versuchen sie Netzwerke zu schaffen, die entsprechende Eigenschaften haben. In vielen Bereichen funktioniert das ziemlich gut.

Welche Fortschritte haben Sie bei Ihren Versuchen, Denken zu imitieren, gemacht?
Das Lösen von kleinen Problemen in der ABC-Mikrowelt war ein wichtiges Ziel. Aber wir haben schnell bemerkt, dass Menschen, wenn sie über solche Probleme sprechen, viele Begriffe verwenden, die das Programm nicht kennt. Zum Beispiel “Begriff” oder “Analogie”. Das haben wir in nachfolgenden Versionen geändert. Das Programm konnte dann zum Beispiel erklären, warum eine Antwort besser ist als eine Alternative. Zudem konnte es auch Lösungswege auf eng verwandte Probleme übertragen. Aber selbst in der abgeschlossenen Miniwelt gibt es sehr viele Ebenen von Komplexität. Wir haben Fortschritte gemacht und arbeiten weiter, aber immer noch in den engen Grenzen dieser Miniwelt.

Gilt das nicht auch für KI-Systeme im Allgemeinen?
Die Frage ist, was ist eine kleine Welt. Selbstfahrende Autos bewegen sich in der wirklichen Welt, wo es Hunde, Katzen, Kinder und besoffene Menschen gibt. Das ist imponierend. Wo die Grenzen dieser Systeme liegen, ist schwer zu sagen, sie werden ja auch laufend verbessert.

Haben Sie Angst vor KI?
Wenn ich einen Diagramm zeichne, mit Zeit auf der einen und Intelligenz auf der anderen Achse, dann ist die menschliche Intelligenz konstant, eine waagrechte Gerade. Vor 30 Jahren sah ich KI auf einem asymptotischen Annäherungskurs dazu, es kann aber auch eine steigende gerade sein, die uns irgendwann überholt. Ich war damals sicher, dass Computer uns nie überholen würden. Wenn die Entwicklung bei selbstfahrenden Autos oder in anderen Bereichen ähnlich verläuft wie beim Schachspielen, wäre das erschreckend. Ich bewundere menschliche Intelligenz - Bach, Chopin oder Puschkin zum Beispiel - und will keine Programme sehen, die wunderbare Kompositionen erschaffen oder wissenschaftliche Entdeckungen machen.

Leute wie Elon Musk oder Stephen Hawking warnen vor der Herrschaft der Maschinen.
Was wissen diese Leute? Sie sind keine Experten.

Sie haben also eher Angst, dass Menschen ihre Vormachtstellung bei der Schöpfung schöner Dinge verlieren als vor übermächtiger KI?
Beides sind für mich erschreckende Szenarien. Auch Leute wie Ray Kurzweil oder Hans Moravec sprechen von der Singularität. Da sind keine dummen Leute, sie kennen sich wirklich mit Computern aus, im Gegensatz zu Musk oder Hawking. Für sie ist die Singularität aber ein wunderbares Ereignis, ein großer Erfolg.

Für wie wahrscheinlich halten Sie die technologische Singularität?
Ausschließen kann ich sie nicht. Wir haben verschiedene Stufen der Evolution gesehen: Eine Zelle, mehrere Zellen, Pflanzen, Tiere im Wasser, dann an Land. Warum sollte es nicht auch neue geben? Das ist natürlich möglich. Ich hoffe nur, dass es nicht sehr schnell passiert.

Sie haben in Gödel, Escher, Bach Rückbezüglichkeit als wichtigen Faktor für Intelligenz identifiziert. Hatte das Einfluss auf die Entwicklung der KI?
Ich würde nicht sagen, dass die Leute, die neuronale Netzwerke entwickelt haben, von mir beeinflusst worden sind. Meine Definition von Bewußtsein hat nichts mit den Eigenschaften von Netzwerken zu tun. Ich kann zum Beispiel meine eigenen Eigenschaften wahrnehmen, meine Ängste oder meine Hoffnungen oder meine Vorlieben. Ich beobachte mich selbst und entwickle einen Sinn dafür, wer ich bin und wie ich bin. Dieses Modell meiner selbst ist sehr einfach, denn die einzelnen Zellen in meinem Gehirn kann ich nicht mit einbeziehen, trotzdem ist es sehr hilfreich. Bisher haben Computer keinen Sinn für ein “Ich”, aber unvorstellbar ist das nicht. Ich will aber kein Programm entwickeln, das mich erschreckt. Ich will nicht, dass es mein Niveau erreicht.

Am Dienstag, 28.11.2017 hält Douglas Hofstadter auf Einladung der Forschungsgruppe Cooperative Systems der Fakultät für Informatik der Universität Wien einen Vortrag zum Thema "The Very Heart and Soul of Russian Literature: Alexander Pushkin’s Novel in Verse 'Eugene Onegin'". Ort: Österreichische Gesellschaft für Außenpolitik und Vereinte Nationen, Hofburg, Eingang Reitschulgasse 2. Nähere Details.

Aufgrund beschränkter Plätze ist eine verbindliche Anmeldung per email an cosy@cs.univie.ac.at erforderlich.

Hat dir der Artikel gefallen? Jetzt teilen!

Markus Keßler

mehr lesen
Markus Keßler

Kommentare