titelei.jpg
Inhaltsverzeichnis
Prolog
Teil I: Die Vergangenheit der Künstlichen Intelligenz
1. Der Traum von der Künstlichen Intelligenz
2. Wie man Künstliche Intelligenz messen kann
Teil II: Die Künstliche Intelligenz in der Gegenwart
3. Künstliche Intelligenz heute
4. Die Grenzen der Künstlichen Intelligenz
5. Künstliche Intelligenz und die Folgen
Teil III: Die Zukunft der Künstlichen Intelligenz
6. Technologischer Wandel
7. Zehn Vorhersagen
Anhang
Nachwort
Anmerkungen
Literatur
Über den Autor
Impressum

Teil I:
Die Vergangenheit der Künstlichen Intelligenz

1. Der Traum von der Künstlichen Intelligenz

Wenn wir wissen wollen, wohin uns die Künstliche Intelligenz führen wird, ist es hilfreich zu verstehen, woher sie kommt und wo sie heute steht.

Der offizielle Startschuss der KI fiel im Jahr 1956, als einer ihrer Väter, John McCarthy16, den Begriff auf einer Konferenz in Dartmouth prägte.17 Es ist kein ganz unproblematischer Begriff, wie ja auch Intelligenz an sich schon ungenügend definiert ist. Und es klingt nie gut, wenn man das Adjektiv künstlich vor etwas setzt. Witze über die natürliche Intelligenz und künstliche Dummheit blieben natürlich nicht aus. Doch nun müssen wir mit dem Namen Künstliche Intelligenz leben. Die Geschichte der KI reicht allerdings viel weiter zurück – sogar bis in die Zeit vor der Erfindung des Computers. Die Idee denkender Maschinen oder die Frage, wie wir Denken überhaupt nachbilden können, beschäftigt die Menschheit schon seit Jahrhunderten.

Wie so viele Geschichten hat auch diese keinen klaren Anfang. Allerdings ist sie eng mit der Geschichte der Logik verknüpft. Ein möglicher Ausgangspunkt ist das dritte Jahrhundert vor Christus, als Aristoteles das Fundament der formalen Logik legte. Ohne Logik gäbe es auch nicht die modernen Digitalrechner. Und Logik wurde und wird oft als Modell des Denkens gesehen, ein Mittel, unseren Gedanken und Argumenten Präzision zu verleihen.

Abgesehen von einigen mechanischen Geräten, die für astronomische Bestimmungen und einfache Berechnungen eingesetzt wurden, hat die Menschheit nach Aristoteles 2000 Jahre lang kaum Fortschritte in Richtung denkender Maschinen gemacht. Doch wir wollen nicht zu streng sein, selbst in den am weitesten entwickelten Ländern hatten die Menschen ein paar andere Probleme: Kriege, Seuchen, Hunger und das finstere Mittelalter.

Eine Ausnahme ist der katalanische Autor, Dichter, Theologe, Mystiker, Mathematiker, Logiker und Märtyrer Ramon Llull, der im 13. Jahrhundert lebte.18 Manche sehen in Llull einen der Väter des Computers. Er konstruierte eine einfache, rechenscheibenartige »logische Maschine«, mit der er rein mechanisch sämtliche wahren Aussagen über einen Gegenstand ermitteln wollte. Dies kann als einer der ersten logisch-mechanischen Versuche zur Produktion von Wissen betrachtet werden. Llull fand damit zwar in seiner Zeit keinen großen Widerhall, soll aber die nächste Person in unserer Geschichte maßgeblich beeinflusst haben.

Lasst uns rechnen

Als sich der geistige Nebel des Mittelalters verzog, nahm unsere Geschichte Fahrt auf. Mit Gottfried Wilhelm Leibniz betritt eine ihrer herausragenden Figuren die Bühne.19 Eine seiner weitsichtigsten Beiträge zur Ideengeschichte war, dass er es für möglich hielt, menschliches Denken irgendwie auf Berechnungen zu reduzieren, und dass sich durch solche Berechnungen Fehler in unseren Überlegungen entdecken und Meinungsverschiedenheiten lösen ließen. Er schrieb: »Das einzige Mittel, unsere Schlussfolgerungen zu verbessern, ist, sie ebenso anschaulich zu machen, wie es die der Mathematiker sind, derart, dass man seinen Irrtum mit den Augen findet und, wenn es Streitigkeiten unter Leuten gibt, man nur zu sagen braucht: ›Rechnen wir!‹ ohne eine weitere Förmlichkeit, um zu sehen, wer recht hat.«20

Leibniz schlug ein einfaches logisches Verfahren zur Durchführung solcher Berechnungen vor. Ihm schwebte dabei ein »Alphabet des menschlichen Denkens« vor, das jeden Grundbegriff durch ein spezielles Symbol darstellen sollte. Computer sind letztlich nichts anderes als Maschinen zur Manipulation solcher Symbole.21 Damit führte Leibniz eine wesentliche Abstraktion auf dem Weg zu denkenden Computern ein. Das ist so zu verstehen: Auch wenn Computer nur Symbole manipulieren, dann können sie doch, wenn diese Symbole für Grundbegriffe stehen, wie Leibniz es vorschlug, neue Begriffe ableiten und auf diese Weise menschenähnlich denken.

Ungefähr zur gleichen Zeit steuerte ein anderer Philosoph, Thomas Hobbes, seinen Beitrag zum philosophischen Fundament der denkenden Maschinen bei.22 Ganz wie Leibniz setzte auch Hobbes Denken mit Rechnen gleich: »Vernunft … ist nichts anderes als Rechnen, das heißt Addieren und Subtrahieren.«23

Denken in Analogie zum Rechnen zu sehen, wie das Leibniz und Hobbes gleichermaßen taten, ist ein erster Schritt auf dem Weg zum Bau einer denkenden Maschine. Mechanische Rechengeräte gab es zwar schon vor Hobbes und Leibniz, aber es sollten noch fast zwei Jahrhunderte vergehen, bevor jemand versuchte, Denken durch Rechenoperationen in die Praxis umzusetzen.24

Ein weiterer Universalgelehrter der frühen Neuzeit ist René Descartes.25 Eine seiner großen philosophischen Gedanken, »cogito ergo sum«, »Ich denke, also bin ich«, ist heute noch Gegenstand von Diskussionen innerhalb der KI. Mit diesen drei lateinischen Wörtern verknüpft er elegant das Denken mit der (menschlichen) Existenz. Der Umkehrschluss lautet, dass man nicht denken kann, wenn man nicht existiert.26 Damit stellt Descartes nicht weniger als die bloße Möglichkeit denkender Maschinen in Frage. Maschinen existieren nicht auf dieselbe Weise wie wir. Ihnen fehlen etliche spezifische Eigenschaften, die wir mit der menschlichen Existenz verknüpfen: Gefühle, Moral, Bewusstsein und Kreativität, um nur einige zu nennen. Diese Eigenschaften wurden als Argumente gegen die Möglichkeit denkender Maschinen ins Feld geführt, wie wir noch sehen werden. Wie zum Beispiel: Maschinen hätten kein Bewusstsein und könnten nicht denken. Oder ihre fehlende Kreativität spreche dafür, dass sie nicht denken könnten. Wir werden uns diese Argumente in Kürze genauer ansehen.

Boole und Babbage

Die nächste wichtige Figur in unserer Geschichte taucht erst 200 Jahre später auf. George Boole war als Mathematiker Autodidakt.27 Obwohl er nie eine Universität besucht hatte, wurde er 1849 in Anerkennung einiger mathematischer Artikel, die er neben seiner Arbeit an einer von ihm selbst gegründeten Schule verfasst hatte, zum ersten Mathematikprofessor ans Queen’s College im irischen Cork berufen. Dieser Lehrstuhl, der sich am Rand der damaligen akademischen Welt befand, gab ihm die Freiheit, Gedanken zu verfolgen, die sich als zentral für die Entwicklung der Computertechnik erweisen sollten, und vom Bau denkender Maschinen zu träumen. Boole hatte die Idee, Logik durch algebraische Operationen zu formalisieren, die auf zwei Werten beruhten: wahr oder falsch, an oder aus, 0 oder 1. Diese sogenannte Boole’sche Logik beschreibt die Operationen sämtlicher heutiger Computer; sie sind nichts anderes als hochentwickelte Maschinen, die einen unablässigen Strom Boole’scher Nullen und Einsen verarbeiten. Seinen Zeitgenossen war die Bedeutung von Booles Ideen nicht bewusst, doch es ist keineswegs übertrieben, ihn als den Vater unserer Informationsgesellschaft zu bezeichnen.

Boole hatte jedoch weit ambitioniertere Pläne, mit denen er seiner Zeit weit voraus war. Der Titel seines umfassendsten Werks über seine Ideen zur Logik gibt uns eine Idee davon: An Investigation of the Laws of Thought, zu Deutsch »Eine Untersuchung der Gesetze des Denkens«. Boole wollte nicht nur einfach eine mathematische Begründung der Logik liefern, er wollte das menschliche Denken selbst erklären. In der Einleitung zu seinem Werk schreibt er:

Der Zweck der folgenden Abhandlung ist es, die fundamentalen Gesetze jener Operationen des Geistes zu untersuchen, die das Denken ausmachen; ihnen in der symbolischen Sprache eines Kalküls Ausdruck zu geben und auf dieser Grundlage die Wissenschaft der Logik zu errichten und ihre Methode auszuarbeiten  … und schließlich aus den verschiedenen Elementen der Wahrheit, die im Laufe dieser Untersuchungen ans Licht gebracht wurden, einige plausible Hinweise auf die Natur und Zusammensetzung des menschlichen Geistes zu gewinnen.

Boole war es nicht vergönnt, diese ehrgeizigen Pläne zu verwirklichen. Schon zehn Jahre nach Veröffentlichung des Buchs starb er viel zu jung, ohne dass die Bedeutung seines Werks erkannt worden wäre.28 Doch selbst wenn Booles Wirkungsort nicht die akademische Provinz von Cork gewesen wäre, eine Maschine zur Automatisierung dieser Träume hätte er wohl auch nicht entwickeln können.

Zwei Jahre vor Booles Tod kam es faszinierenderweise zu einer Begegnung zwischen ihm und der nächsten Figur in unserer Geschichte, Charles Babbage. Sie fand auf der Londoner Weltausstellung 1862 statt, wo die beiden Wegbereiter der KI sicher auch über Babbages Pläne einer denkenden Maschine sprachen. Es ist eine reizvolle Frage, was sie wohl gemeinsam ausgeheckt hätten, wenn Boole nicht kurz darauf gestorben wäre. Charles Babbage war ein Universalgenie: Mathematiker, Philosoph, Erfinder und Ingenieur.29 Er träumte davon, mechanische Rechenmaschinen zu bauen. Auch wenn er dies nicht verwirklichen konnte, wird er heute von vielen als Vater des programmierbaren Computers betrachtet. Die von ihm entworfene Analytical Engine sollte mithilfe von Lochkarten programmiert werden.

Die Verwendung austauschbarer Programme ist eine wesentliche Eigenschaft von Computern. Jedes Smartphone kann mit neuen Apps bestückt werden, darunter sicherlich Programme, die weder Steve Jobs noch sonst einem der Schöpfer des Smartphones in den Sinn gekommen waren. So kann es viele Dinge zugleich sein: Taschenrechner, Notizblock, Gesundheitsmonitor, Navigationsgerät, Kamera, Filmabspielgerät und sogar, man vergisst es manchmal schon, Telefon. In diese Richtung gingen schon Turings Vorstellungen, als er sein allgemeines Modell für Rechenmaschinen entwickelte. Er beschrieb den Computer als eine universelle Maschine, die für verschiedene Aufgaben programmiert werden kann. Und Computerprogramme können sich sogar selbst verändern, eine wichtige Voraussetzung, um den Traum von der Künstlichen Intelligenz Wirklichkeit werden zu lassen. Lernen ist eine wesentliche Komponente von Intelligenz. Wenn ein Computer das Lernen simulieren soll, dann muss er irgendwie sein eigenes Programm modifizieren können. Zum Glück ist es relativ einfach, ein Computerprogramm zu schreiben, das sich selbst verändern kann. Ein Programm besteht schließlich nur aus Daten, und die können bearbeitet und verändert werden, so wie die Zahlen einer Tabelle, die Buchstaben in einem elektronischen Text oder die Farben der Pixel eines Digitalfotos. So können Computer lernen, neue Aufgaben zu erledigen – das heißt ihr Programm ändern, um Dinge zu tun, die ihnen ursprünglich nicht einprogrammiert waren.

Der erste Programmierer

Babbages wichtigste Mitstreiterin war Augusta Ada King, Countess of Lovelace, allgemein bekannt als Ada Lovelace.30 Sie verfasste eine Reihe von Erläuterungen, in denen sie Babbages Analytical Engine einem breiteren Publikum beschrieb und erläuterte. Dabei entwickelte sie auch das, was allgemein als das erste Computerprogramm gilt. Babbage sah die Aufgabe seiner Maschine vor allem darin, numerische Berechnungen durchzuführen, um astronomische und andere Tabellen zu erstellen. Doch Lovelace war in der Lage, sich Rechenmaschinen vorzustellen, die viel mehr konnten als bloß Zahlen verarbeiten. Babbages Erfindung, schrieb sie, »könnte auch auf andere Dinge als Zahlen anwendbar sein  … die Maschine könnte nach wissenschaftlichen Prinzipien komplizierte Stücke von Musik beliebiger Komplexität und Länge komponieren.«

Mit dieser Idee war sie ihrer Zeit um ein Jahrhundert voraus. Der kühne Gedanke von Lovelace hat sich mit unseren Smartphones verwirklicht, die außer Zahlen auch Töne, Bilder und viele andere Dinge bearbeiten können. Und zugleich war Ada Lovelace auch eine der ersten Kritikerinnen der Künstlichen Intelligenz, sprach sie doch denkenden Maschinen die Kreativität ab. »Die Analytical Engine besitzt nicht den Ehrgeiz, irgendetwas Neues erschaffen zu wollen«, schrieb sie. »Sie kann alles, was wir ihr auszuführen befehlen. So kann sie analytischen Überlegungen folgen; aber sie besitzt keine Fähigkeit, analytische Beziehungen oder Wahrheiten zu entdecken.«

Ob sich dies tatsächlich so verhält – dass Computer nicht intelligent sein können, wenn sie nicht kreativ sind –, ist intensiv diskutiert worden. Turing ging darauf in seinem bahnbrechenden Mind-Artikel ein. Ich werde darauf in Kürze zurückkommen, doch zuvor will ich noch einige Bemerkungen zu dem Einwand von Lovelace machen. Der erste Mensch, der sich Gedanken über die Programmierung von Computern machte und, bereits über hundert Jahre bevor es solche Rechner gab, von Computern träumte, die mehr können als bloß Zahlen zu verarbeiten, war zugleich äußerst skeptisch, ob das Endziel, denkende Maschinen zu bauen, erreicht werden könne. Es ist eben kein simpler Traum, sondern einer, der unsere Position in der Welt tief berührt. Sind wir in irgendeiner Weise etwas Besonderes? Oder sind auch wir nur Maschinen, so wie unsere Computer? Die Antwort auf diese Fragen wird letztendlich Einfluss auf unser Selbstbild haben. Sie gefährdet unsere Stellung im Zentrum der Dinge, so wie die Entdeckung von Kopernikus, dass sich die Erde um die Sonne dreht, oder Darwins Erkenntnis, dass wir von den Affen abstammen. Eine der weniger bekannten Figuren, die im 19. Jahrhundert in unserer Geschichte mitspielt, ist William Stanley Jevons.31 Er war hauptsächlich Mathematiker und Ökonom. Aber für uns ist hier vor allem sein »logisches Piano« von Interesse, das er 1870 vorstellte, ein mechanischer Computer, der logische Probleme mit bis zu vier wahr/falsch-Entscheidungen lösen konnte – oder um es in der Sprache der Boole’schen Logik auszudrücken, mit bis zu vier Variablen, die die Werte 0 oder 1 annehmen konnten. Jevons entwickelte dieses Piano als Hilfsmittel für den Logikunterricht. Das Original kann heute im Museum für Wissenschaftsgeschichte in Oxford besichtigt werden. Das logische Piano setzt auf elegante Weise einen kleinen Teil der Boole’schen Logik um. »Der Mechanismus ist in der Lage, die für die logische Herleitung erforderliche Denkleistung größtenteils zu ersetzen«, schrieb ihr Erfinder.32

Man kann also durchaus sagen, dass Jevons eine sehr schlichte denkende Maschine gebaut hat; allerdings bezweifle ich, dass dem erlauchten Publikum, das im Jahr 1870 ihrer Vorführung an der Royal Society beiwohnte, klar war, wie sehr solche logischen Pianos eines Tages unser Leben umkrempeln würden. Doch unbestreitbar war dies einer der ersten zaghaften Schritte auf dem Weg zum Bau von Computern und damit der Verwirklichung Künstlicher Intelligenz. Leider starb auch Jevons wie manch anderer Protagonist in unserer Geschichte einen viel zu frühen Tod; sein Nachruf in der Times erwähnte das logische Piano nicht.33

Die logische Revolution

Unsere Geschichte macht nun einen Sprung zum Beginn des 20. Jahrhunderts, eine Umbruchszeit in Wissenschaft, Kunst und Politik. Die Grundlagen der Physik wurden von Albert Einstein, Niels Bohr, Werner Heisenberg und anderen durch die revolutionären Ideen der Relativitätstheorie und der Quantenmechanik erschüttert. Die Kunst wurde durch Bewegungen wie den Impressionismus und den Dadaismus aufgerüttelt. Und ungefähr zur selben Zeit gerieten auch die Fundamente der Mathematik und der ihr zugrundeliegenden Logik ins Wanken.

Einer der größten Mathematiker dieser Zeit war David Hilbert.34 Im Jahr 1900 trug er die 23 schwierigsten Probleme der Mathematik zusammen. In der Einführung zu ihrer Vorstellung schrieb er:

Wer von uns würde nicht gern den Schleier lüften, unter dem die Zukunft verborgen liegt, um einen Blick zu werfen auf die bevorstehenden Fortschritte unsrer Wissenschaft und in die Geheimnisse ihrer Entwickelung während der künftigen Jahrhunderte! Welche besonderen Ziele werden es sein, denen die führenden mathematischen Geister der kommenden Geschlechter nachstreben? Welche neuen Methoden und neuen Thatsachen werden die neuen Jahrhunderte entdecken – auf dem weiten und reichen Felde mathematischen Denkens? 35

Diese beinahe poetische Vision würde eine gute Einführung für dieses Buch abgeben. Mehrere von Hilberts 23 Problemen betrafen direkt die Grundlagen der Mathematik, die zu dieser Zeit unsicher geworden waren. Betrachten wir etwas mathematisch so Einfaches wie eine Menge. Eine Menge ist nichts weiter als eine Ansammlung von Objekten: die Menge der schwarzen Autos, die Menge der silbernen Autos, die Menge der schwarzen oder silbernen Autos, die Menge all dessen, was kein silbernes Auto ist. Im Jahr 1874 schrieb der deutsche Mathematiker Georg Cantor eine Formalisierung der Mathematik der Mengen.36 Das scheint zunächst ein seltsames Projekt für einen Mathematiker. In der Mathematik geht es um Objekte wie Zahlen und Funktionen. Warum sollte man sich dort für etwas so Simples wie eine Menge interessieren? Doch Mengen können die verschiedensten mathematischen Objekte repräsentieren: Zahlen, Funktionen, Kurven und viele weit exotischere Dinge, mit denen sich Mathematiker beschäftigen, beispielsweise Mannigfaltigkeiten, Ringe und Vektorräume.37

Bertrand Russell, ein anderer großer Mathematiker aus dieser Zeit, erbrachte den Beweis, dass Cantors Versuch, die Mathematik der Mengen zu formalisieren, zu einem Paradox führt.38 Betrachten wir noch einmal die Menge aller silberfarbenen Autos. Diese Menge enthält sich nicht selbst. Nennen wir sie eine normale Menge. Betrachten wir nun die Komplementärmenge, die Menge, die alles enthält, was kein silbernes Auto ist. Diese Menge enthält sich selbst. Nennen wir das eine nichtnormale Menge. Nun betrachten wir die Menge aller normalen Mengen. Ist die Menge aller normalen Mengen selbst normal? Wenn sie normal ist, dann ist sie in der Menge aller normalen Mengen enthalten. Das heißt, sie wäre in sich selbst enthalten. Aber dann wäre es eine nichtnormale Menge. Betrachten wir nun die Alternative. Nehmen wir an, die Menge aller normalen Mengen ist selbst eine nichtnormale Menge. Als nichtnormale Menge wäre sie in sich selbst enthalten, der Menge aller normalen Mengen. Aber das macht sie zu einer normalen Menge. Daraus ergibt sich Russells berühmte Antinomie: Eine Menge kann nicht zugleich normal und nichtnormal sein. Wir werden an späterer Stelle unserer Geschichte auf ähnliche Widersprüche stoßen. Cantors Mengentheorie war so mit Widersprüchen durchsetzt, dass Kritiker ihn einen »wissenschaftlichen Scharlatan« und »Verderber der Jugend« nannten. Doch wie die nächste Figur in unserer Geschichte beweist, ist all das nicht Cantors Schuld. Es liegt am Wesen der Mathematik selbst. Und dies ist eine grundsätzliche Herausforderung für den Bau denkender Maschinen – zumindest denkender Maschinen, die mit Logik operieren.

Als Antwort auf diese sogenannte Grundlagenkrise der Mathematik formulierte Hilbert ein Arbeitsprogramm, um die Mathematik auf eine präzise, logische Grundlage zu stellen. Das sogenannte Hilbertprogramm zielte darauf ab, eine überschaubare Menge grundlegender Sätze oder Bausteine zu finden, aus denen sich das gesamte Gebäude der Mathematik errichten ließ. Das Hilbertprogramm setzte es sich auch zum Ziel, den Nachweis zu erbringen, dass diese Formalisierung der Mathematik nicht die Widersprüche von Cantors Mengenlehre wiederholt. Sobald sich nämlich Widersprüche einschleichen, lässt sich praktisch alles beweisen. Wenn wir denkende Maschinen bauen wollen – Maschinen, die unter anderem auch Mathematik betreiben –, dann brauchen wir eine solide Grundlage.

Das Ende der Mathematik

Im Jahr 1931 erhielt das Hilbertprogramm einen schweren Schlag durch Kurt Gödel, einen der wichtigsten Logiker der Geschichte.39 Er bewies die Undurchführbahrkeit des Hilbertprogramms durch seine beiden berühmten Unvollständigkeitssätze. In ihnen erbrachte er den Beweis, dass jede Formalisierung der Mathematik, die hinreichend auch etwas so Einfaches wie die natürlichen Zahlen beschreibt, unausweichlich unvollständig ist und Widersprüche enthält. Daraus folgt, dass jedes widerspruchsfreie mathematische System auch mathematische Wahrheiten enthält, die sich nicht beweisen lassen, mit anderen Worten, unvollständig ist.

Gödels Befund versetzte dem Hilbertprogramm den Todesstoß und ließ die Mathematik für alle Zeiten auf wackligem Fundament zurück. Die Aufgabe, die Mathematik insgesamt mit mathematischer Genauigkeit zu beschreiben, erwies sich als undurchführbar. Und dies stellt eine große philosophische Herausforderung an den Traum vom Bau denkender Maschinen dar. Wenn wir in der Lage wären, denkende Maschinen zu bauen und wenn diese Maschinen mathematisch denken sollen, wie Leibniz und Hobbes es uns beschrieben haben, dann müssen wir ihnen eine präzise, logische Formalisierung der Mathematik geben, mit der sie denken können. Doch Gödels Unvollständigkeitssätze zeigen, dass wir für die Mathematik keine präzisen Regeln formulieren können, jedenfalls keine Regeln, die man einem Computer einprogrammieren könnte, damit er die gesamte Mathematik beherrscht.

Der mathematische Physiker Sir Roger Penrose40 ist ein entschiedener Kritiker des Gedankens, dass die Künstliche Intelligenz eines Tages die menschliche Intelligenz übertreffen könne.41 Doch nicht alle lassen seine Argumente gelten. Computer müssen ebenso wenig wie Menschen alle mathematischen Sätze beweisen können, um mit Mathematik umzugehen, und sie können genauso gut wie Menschen mit einem System umgehen, das Widersprüche enthält. Gödels Sätze beziehen sich auf unendliche Systeme, aber Menschen und Computer sind stets endlich. Außerdem werden Computer in nicht allzu ferner Zukunft andere Techniken verwenden; Quantencomputer gehen neue Wege, die über Gödels Resultate hinausreichen. Unter Fachleuten herrscht nach wie vor Konsens, dass Gödels Unvollständigkeitssätze dem Traum vom Bau denkender Maschinen theoretisch nicht im Weg stehen. Und in der Praxis machen wir gute Fortschritte in Richtung KI, wie ich nun kurz darlegen will.

Was Computer nicht können

Das bringt uns fast wieder zum Anfang des Buches zurück, zu Alan Turing. Er leistete in Theorie und Praxis einen entscheidenden Beitrag zum Bau von Computern. Von ihm stammt das grundlegende abstrakte Modell, die Turing-Maschine, die bis zum heutigen Tag Computer mathematisch beschreibt. Doch schon 1936, bevor die erste dieser Maschinen überhaupt gebaut worden war, hatte Turing eine andere bemerkenswerte Erkenntnis. Er kam dahinter, dass es gewisse Probleme gibt, die sich durch Berechnungen mit solchen Maschinen nie lösen lassen. Dabei hatte zu diesem Zeitpunkt noch kein Mensch einen Computer programmiert – es gab schließlich noch keine. Trotzdem erkannte Turing glasklar, dass es bestimmte Probleme gibt, die auch der klügste Programmierer keinem Rechner einspeisen kann.

Eines davon ist das »Halteproblem«. Lässt sich ein Computerprogramm schreiben, das die Entscheidung darüber trifft, wann ein anderes Programm anhalten soll? Ein solches Programm wäre sehr nützlich. Natürlich will man nicht, dass die Steuerungssoftware eines Flugzeugs irgendwann ihre Arbeit einstellt, aber das Programm, das nach neuen Fernsehkanälen für unseren Receiver sucht, sollte vielleicht irgendwann damit aufhören. Und hier zeigte Turing, dass dies für einen Computer nicht immer entscheidbar ist.42 Man muss bedenken, dass ein Programm an sich auch nur aus Daten besteht. Damit kann es als Input für andere Programme dienen. Wir könnten ein Programm schreiben, das ein anderes Programm als Input nimmt und entscheidet, ob dieses Programm jemals zum Halt kommt. Turing kam zu dem verblüffenden Ergebnis, dass kein noch so cleverer Programmierer einen solchen Algorithmus schreiben könnte.

Turing benutzte dazu einen Zirkelschluss, der an Russells Paradox über Mengen, die sich nicht selbst enthalten, erinnert. Nehmen wir an, wir verfügten über ein Programm, das das Halteproblem lösen könnte. Nennen wir es das Turing-Programm. Wir setzen es als Teilprogramm eines größeren Programms ein, das wir das Super-Turing-Programm nennen wollen. Dieses Programm kann mit sämtlichen Programmen gefüttert werden und mithilfe des Turing-Programms als Unterprogramm entscheiden, ob das eingefütterte Programm irgendwann zum Ende kommt. Wenn das eingefütterte Programm anhält, geht das Super-Turing-Programm in eine unendliche Schleife, die niemals anhält. Wenn andererseits das Input-Programm nicht anhält, dann hält das Super-Turing-Programm an. Hier kommt der Zirkelschluss von Turing ins Spiel. Was macht das Super-Turing-Programm, wenn wir es mit sich selbst füttern? Das Super-Turing-Programm kann dann entweder anhalten oder nicht anhalten.

Betrachten wir die beiden Möglichkeiten. Angenommen, das Super-Turing-Programm hält bei diesem Input nicht an. Dann hält das Super-Turing-Programm nicht bei einem Input an, der anhält. Das bedeutet, dass das Super-Turing-Programm anhält. Wenn das Super-Turing-Programm also nicht anhält, dann heißt das, dass es anhält. Angenommen, das Super-Turing-Programm hält bei diesem Input an. Nun hält das Super-Turing-Programm an, wenn es als Input ein Programm erhält, das nicht anhält. Dies heißt, dass das Super-Turing-Programm nicht anhalten würde. In beiden Fällen kommen wir zu einem Widerspruch. Das Super-Turing-Programm kann nicht zugleich anhalten und nicht anhalten. Dabei bin ich von einer entscheidenden Annahme ausgegangen, nämlich dass das Turing-Programm existiert. Wir können daraus schlussfolgern, dass Turings Programm nicht existieren kann. Es kann also kein Programm geben, das entscheiden kann, ob jedes beliebige Programm, mit dem man es als Input füttert, anhält. Mit diesem Gedankenexperiment konnte Turing nachweisen, dass es Probleme gibt, die Computer nicht lösen können.

Dies kann als ein weiteres grundsätzliches Hindernis auf dem Weg zu denkenden Maschinen betrachtet werden. Wir haben den eindeutigen Beweis, dass es Dinge gibt, die Computer nicht können.43 Die Frage ist nun, ob sich diese Unentscheidbarkeit nur auf solch abgelegene Probleme bezieht wie das, ob ein Programm anhalten kann oder nicht. Die Antwort ist, es gibt viele weitere, sehr viel praxisnähere Probleme, die nicht durch Computer gelöst werden können, beispielsweise die Entscheidung, ob eine mathematische Aussage richtig oder falsch ist.44

Aus mehreren Gründen bedeutet die Existenz von Problemen, die kein Computer zu lösen vermag, nicht das Aus für den Traum von denkenden Maschinen. Erstens kann es immer noch Computerprogramme geben, die solche Probleme lösen, wenn auch vielleicht nicht alle. Schon jetzt kann man Software wie Mathematica oder Maple kaufen, die sehr oft entscheiden kann, ob mathematische Aussagen wahr oder falsch sind, auch wenn diese Programme manchmal als Ergebnis nur »Ich weiß es nicht« parat haben. Zweitens, gewissermaßen hilfsweise, wäre immer noch ein Computerprogramm möglich, das solche Probleme zwar im Prinzip löst, dessen Resultate allerdings eine Spur Unsicherheit enthalten. Die Software kann sich also gelegentlich irren, wenn sie zu dem Ergebnis kommt, dass das eingespeiste Programm anhält, es aber in Wahrheit nicht tut, und umgekehrt. Drittens sind Heuristiken, also Faustregeln, die oft ausreichend genau sind, aber manchmal eben zu Fehlern führen oder auch in Endlosschleifen münden, ein großes Arbeitsgebiet der Künstlichen Intelligenz. Viertens ergeben menschliche Denkprozesse normalerweise ohnehin keine hundertprozentige Richtigkeit. Wenn man eins mit absoluter Sicherheit sagen kann, dann, dass Menschen nicht immer zu 100 Prozent richtigliegen. Wir müssen auch keine Maschine bauen, die jederzeit Turings Halteproblem lösen kann. Folglich muss der Traum vom Bau denkender Maschinen nicht an der Tatsache scheitern, dass wir Probleme kennen, die Computer nicht präzise lösen können.

Der Beginn des Computerzeitalters

Als Turing sich damit beschäftigte, was Computer nicht berechnen können, gab es noch gar keine Computer, die überhaupt irgendetwas berechnen konnten. Der Traum vom Bau denkender Maschinen war zu diesem Zeitpunkt noch reine Theorie. Das änderte sich erst mit dem Zweiten Weltkrieg. Die Notwendigkeit, den feindlichen Nachrichtenverkehr zu entschlüsseln, und die umfangreichen Berechnungen, die zum Bau der Atombombe notwendig waren, gaben der praktischen Seite der Computertechnik einen gewaltigen Schub und führten zum Bau der ersten nutzbaren Computer.

Die Ansichten zu der Frage, welches nun der erste Computer der Welt war, gehen auseinander. Die Entscheidung darüber wird durch die Geheimhaltung dieser Projekte während des Zweiten Weltkriegs und die unterschiedlichen Fähigkeiten dieser Rechner erschwert. Die Deutschen hatten die Z3, die 1941 einsatzfähig war, die Briten den Colossus, der ab 1944 arbeitete, und die Vereinigten Staaten den ENIAC, der 1946 in Betrieb ging. Dann gab es noch das Manchester Baby, das zwar erst ab 1948 zu rechnen begann, aber der erste Computer war, der sein eigenes Programm abspeichern konnte.45 Doch für unsere Geschichte ist es nicht so wichtig, welcher der erste war. Viel bedeutsamer ist, wie rasant sich ihre Geschwindigkeit und ihre Speicherkapazität steigerten, während ihre Größe und ihr Preis dramatisch fielen. Dies führte dazu, dass die Zahl der Computer rasch anstieg. Heute gibt es weltweit Milliarden Rechner. Ob Thomas Watson als Vorstandsvorsitzender von IBM 1943 nun wirklich, wie oft behauptet wird, die Prognose getroffen hat, dass die Welt nicht mehr als ein halbes Dutzend Computer benötige, oder nicht – sie ist jedenfalls gründlich widerlegt.46 Heute klingt es viel plausibler, einen Markt für mindestens ein halbes Dutzend Computer pro Bewohner des Planeten auszumachen.

Dartmouth und die Folgen

Als sich die Welt von den Folgen des Zweiten Weltkriegs erholte und sich die Erfolgsgeschichte des Computers anbahnte, schien alles für den Bau denkender Maschinen bereit. Es fehlte sozusagen bloß noch der Startschuss. Der fiel 1956 mit einer Konferenz am Dartmouth College in New Hampshire, einer der zur sogenannten Ivy League gehörenden Elite-Hochschulen der USA. Das Dartmouth Summer Research Project on Artificial Intelligence wurde von John McCarthy organisiert, der neben Alan Turing als einer der Väter der Künstlichen Intelligenz gilt und später in Stanford das renommierte KI-Institut gründete. In jenem Sommer stellte McCarthy zusammen mit Marvin Minsky, Nathaniel Rochester und Claude Shannon einen Antrag bei der Rockefeller-Stiftung auf Förderung einer zweimonatigen Arbeitskonferenz. Minsky leistete Pionierarbeit auf dem Gebiet künstlicher neuronaler Netzwerke und baute später ein wichtiges KI-Institut am MIT auf.47 Rochester arbeitete für IBM und war dort an der Entwicklung des IBM 701 beteiligt, des ersten in größerer Stückzahl gebauten Elektronengehirns. Shannon forschte bei den Bell Labs und hatte sich bereits mit einer bahnbrechenden Arbeit zur Informationstheorie und durch die Anwendung mathematischer Logik auf die Entwicklung und den Bau von Computern einen Namen gemacht. Zu den Teilnehmern der Konferenz in Dartmouth gehörten auch Oliver Selfridge, ein Enkel des berühmten Londoner Warenhausbesitzers und später Chefwissenschaftler der Telefongesellschaft GTE Laboratories, Herbert Simon, der den Nobelpreis für Wirtschaftswissenschaften erhalten sollte,48 und Allen Newell, der das bekannte KI-Institut an der Carnegie Mellon University aufbaute.49

Mit großem Optimismus ging man auf der Dartmouth-Konferenz von einem rasanten Fortschritt beim Bau denkender Maschinen aus, wie schon in den ersten Sätzen des Förderantrags zum Ausdruck kam:

Wir schlagen für den Sommer 1956 eine zweimonatige Tagung für 10 Teilnehmer zum Studium der Künstlichen Intelligenz am Dartmouth College in Hanover, New Hampshire, vor. Grundlage soll die Annahme sein, dass das Lernen und der Erkenntnisvorgang in allen Aspekten im Prinzip so präzise beschrieben werden kann, dass der Bau einer Maschine möglich ist, die es simuliert. Es soll der Versuch unternommen werden herauszufinden, wie man Maschinen baut, die Sprache verwenden, Abstraktionen und Begriffe bilden, alle Arten von Problemen lösen, die bislang nur Menschen lösen können, und sich selbst verbessern. Wir meinen, dass in einem oder mehreren dieser Punkte signifikante Fortschritte erzielt werden können, wenn eine sorgfältig ausgewählte Gruppe von Wissenschaftlern einen Sommer lang daran arbeitet.

Auch wenn er von übergroßem Optimismus geprägt war, der Antrag brachte den Traum deutlich zum Ausdruck: das Lernen und andere Aspekte der menschlichen Intelligenz mit solcher Präzision zu beschreiben, dass sie von einem Computer simuliert werden können. Kurz, sie wollten Leibniz’ Traum realisieren, das Denken in die Form einer Berechnung zu bringen. Doch wie wir noch sehen werden, sollte dieser Optimismus bald zum Problem für das Forschungsgebiet werden.

Die Künstliche Intelligenz in Europa

Natürlich ging es mit der KI nicht nur in den USA voran. Auch Großbritannien spielte eine entscheidende Rolle in den frühen Tagen der Künstlichen Intelligenz. Dort wurde 1964 die erste wissenschaftliche Organisation gegründet, die sich dem Studium der KI widmete, die heute noch existierende Society for the Study of Artificial Intelligence and the Simulation of Behaviour.

Ein Ort in Großbritannien spielte hierbei in der Frühzeit der Entwicklung eine herausragende Rolle. Donald Michie holte 1963 eine Gruppe von Forschern an die Universität von Edinburgh, aus der sich schließlich die erste Fakultät für Künstliche Intelligenz der Welt entwickelte.50 Michie hatte als einer der Codeknacker von Bletchley Park häufig mit Turing in der Kantine am Traum von der Künstlichen Intelligenz gesponnen. Viele bahnbrechende Projekte wurden in Edinburgh gestartet, darunter der KI-Roboter Freddy, einer der ersten, der optische Sensoren, Greifwerkzeuge und eine komplexe Kontrollsoftware einsetzte.

Bedauerlicherweise verschenkte Großbritannien seinen frühen Vorsprung auf dem Feld der KI, nachdem der Mathematiker Sir Michael James Lighthill sich 1973 in einem für den Forschungsbeirat der Regierung erstellten Bericht sehr kritisch zum Stand der Künstlichen Intelligenz geäußert hatte. Er erstellte eine äußerst pessimistische Prognose, unter anderem, dass »bislang kein Bereich des Forschungsgebiets zu Entdeckungen geführt hat, die den versprochenen Erfolg haben«. Anscheinend resultierte Lighthills kritische Haltung auch aus den Rivalitäten, die er bei der Forschergruppe in Edinburgh beobachtete. Der Bericht hatte zur Folge, dass die Mittel für die KI-Forschung in Großbritannien fortan spärlicher flossen, was erst ein Jahrzehnt später mit dem Alvey-Programm korrigiert wurde.

Frühe Erfolge

Mit der KI ging es zwar anfangs nicht so schnell voran, wie es die Teilnehmer der Konferenz von Dartmouth prognostiziert hatten51, dennoch wurde in den zwei Jahrzehnten nach 1956 einiges erreicht, und viele Projekte aus diesen Jahren wurden zu Meilensteinen der KI.

Zu ihnen gehört der Shakey52, der erste mobile Roboter, der seine Umgebung analysierte und selbstständig Entscheidungen über sein weiteres Vorgehen traf. Allzu viel konnte er nicht, dennoch stellt er in mancherlei Hinsicht den ersten ernsthaften Versuch dar, einen autonomen Roboter zu bauen. Das Shakey-Programm lief von 1966 bis 1972 am Stanford Research Institute im kalifornischen Palo Alto. Wie viele andere KI-Projekte wurde es vom Verteidigungsministerium der USA finanziert. Man erhoffte sich die Entwicklung von Militärrobotern, die ohne Gefahr für das Leben eigener Soldaten Aufklärungsarbeit leisten konnten. (Fünf Jahrzehnte später verfügt das Militär nun tatsächlich über solche Roboter.)

Die Zeitschrift Life nannte Shakey die »erste elektronische Persönlichkeit«.53 Das ist vielleicht ein wenig zu viel der Ehre, dennoch gebührt Shakey ein Platz unter den ersten Robotern der Geschichte, die selbstständig denken und handeln konnten. Im Jahr 2004 wurde er in die »Robot Hall of Fame« der Carnegie Mellon University aufgenommen. Eines der wichtigsten Nebenprodukte des Shakey-Projekts war der A*-Algorithmus, der den kürzesten Weg zwischen zwei Punkten findet. Shakey verwendete ihn, um seine Route zu planen. Heute benutzen sämtliche Navis in unseren Autos in der einen oder anderen Form den A*-Algorithmus. Dies ist ein schönes Beispiel dafür, auf welch unvorhersehbare Weise uns Technik neue Bereiche eröffnet. Wer hätte gedacht, dass die Forschung an den frühen autonomen Robotern einen wesentlichen Beitrag zur Satelliten-Navigation von Fahrzeugen liefern würde? Im Förderantrag von Shakey war davon jedenfalls keine Rede.54

Ein weiterer Meilenstein war Dendral, ein Projekt aus dem Jahr 1965, das den Startschuss für ein ganz neues Geschäftsmodell bildete, die sogenannten Expertensysteme. Dendral war der ambitionierte Versuch, Fachwissen in einem bestimmten Bereich (in diesem Fall Molekularchemie) in ein Computerprogramm zu übersetzen. Dendral analysierte die Daten aus massenspektrographischen Untersuchungen mithilfe einer Datenbank. Dabei befolgte Dendral Entscheidungsregeln, wie sie auch ein menschlicher Experte benutzen würde, um so die Vielzahl der möglichen chemischen Strukturen auf eine kleine Zahl wahrscheinlicher Kandidaten zu verringern. Durch diesen Erfolg erbrachte Dendral auch den allgemeinen Nachweis, dass Computer durch die Konzentration auf eine eng umrissene Aufgabe und die Übersetzung menschlichen Fachwissens in Programmschritte in der Lage sind, Aufgaben zu lösen, die bisher menschlichen Experten vorbehalten waren. In den 1980er Jahren hielten solche Expertensysteme Einzug in Krankenhäuser, Banken, Atomkraftwerke und viele andere Bereiche. Aus diesen Expertensystemen haben sich die Business-Rule-Engines entwickelt, die heute von Unternehmen wie SAP, Oracle und IBM verkauft werden.

Meisterspieler Maschine

Ein wichtiger Meilenstein in der Entwicklung denkender Maschinen war der 15. Juli 1979, als das Computerprogramm BKG 9.8 Luigi Villa besiegte, den damals besten Backgammon-Spieler der Welt. Die in Monte Carlo ausgetragene Begegnung, bei der es um ein Preisgeld von 5000 Dollar ging, endete mit einem eindeutigen 7:1 für den Computer. Es war das erste Mal, dass ein Computerprogramm einen Weltmeister in einem solch komplexen Brettspiel schlug. Damit hatte der Mensch seine absolute Überlegenheit in diesem Bereich verloren. Computer schickten sich an, ihre Schöpfer in den Schatten zu stellen. Man muss der Fairness halber allerdings sagen, dass Backgammon auch Glücksspielelemente enthält, und der Computer streckenweise55 die Würfel auf seiner Seite hatte. Hans Berliner56, der Entwickler von BKG 9.8, schrieb später:

So sehr mich der Ausgang überraschte, das Programm hatte den Sieg eindeutig verdient. Man konnte an seinem Spiel nicht viel bemängeln, auch wenn es die dritte und letzte Partie mit einigem Glück gewonnen hat. Die Zuschauer strömten in den abgeschotteten Raum, in dem die Spiele stattgefunden hatten. Die Fotografen schossen Bilder, die Reporter stellten Fragen und die versammelten Experten gratulierten mir. Nur eine Sache trübte die Freude. Villa, der nur einen Tag zuvor mit dem Gewinn der Weltmeisterschaft den Gipfel seiner Backgammon-Karriere erklommen hatte, war untröstlich. Ich sagte ihm, es tue mir leid und wir beide wüssten, dass er in Wahrheit der bessere Spieler sei.57

Auch wenn BKG 9.8 eigentlich nicht der bessere Spieler war, es war dennoch ein historischer Augenblick. Berliner hatte mit BKG 9.8 kein Programm geschrieben, das besonders gut Backgammon spielen konnte, sondern eines, das lernte, wie man Backgammon spielt. Und wie es ihm aufgetragen worden war, lernte das Programm besser zu spielen als sein Schöpfer und erreichte schließlich sogar Weltmeisterniveau.

Es war nur noch eine Frage der Zeit, bis der Mensch auch in anderen Spielen gegen Maschinen ins Hintertreffen geriet, auch im Schachspiel, das Turing wie viele andere fasziniert hatte. 1985 wurde Garri Kasparow mit nur 22 Jahren der jüngste Schachweltmeister aller Zeiten, und vielen gilt er bis heute als der stärkste Spieler der Schachgeschichte. Man muss es als bittere Ironie des Schicksals werten, dass Schachprogramme schließlich zwölf Jahre später, als Kasparow immer noch an der Spitze der Weltrangliste stand, den Menschen auch in diesem Spiel endgültig auf seinen Platz verwiesen. Am 11. Mai 1997 verlor Kasparow gegen den IBM-Computer Deep Blue in einem Schauturnier in New York. Deep Blue strich das Preisgeld von 700.000 Dollar ein. Noch im Jahr zuvor hatte Kasparow den Computer in einem ähnlichen Kampf geschlagen und das Preisgeld von 400.000 Dollar mit nach Hause genommen. Nun war er als der erste Weltranglistenführer in der Geschichte des Schachspiels von einem Computer besiegt worden.

Wie geht es Ihnen?

Ein anderer Meilenstein der KI-Frühzeit war ELIZA, eine Computer-Psychotherapeutin.58 Ich zögere ein wenig, das Programm unter die Erfolge der KI einzureihen, man könnte es mit guten Gründen auch im nächsten Abschnitt zu ihren frühen Fehlschlägen zählen. ELIZA wurde zwischen 1964 und 1966 von Joseph Weizenbaum geschrieben.59 Einerseits ist ELIZA eine der geistigen Großmütter all jener Chatbots, die heute erfolgreich Kundenanfragen auf Websites von Unternehmen wie PayPal und IKEA beantworten.

Andererseits arbeitete ELIZA auch mit simplen Tricks. Das Programm gab Aussagen der Patienten wie »Ich denke viel über meinen Vater nach« schlicht in Frageform an sie zurück: »Warum denken Sie viel über Ihren Vater nach?« In Wahrheit hatte ELIZA nur ein begrenztes Verständnis von Semantik, und ihr Repertoire der Gesprächsführung war ziemlich beschränkt. Dennoch brachte die Software einige ziemlich überzeugende Dialoge zustande. Weizenbaums Sekretärin soll angeblich darum gebeten haben, mit ELIZA allein und privat plaudern zu können.

Ein Gespräch mit Eliza

Weizenbaum gibt ein typisches Gespräch von ELIZA mit einer jungen Frau folgendermaßen wieder:

FRAU: Die Männer sind alle gleich.

ELIZA: In welcher Hinsicht?

FRAU: Dauernd wollen sie, dass man dieses oder jenes tut.

ELIZA: Können Sie ein konkretes Beispiel nennen?

FRAU: Na ja, mein Freund wollte, dass ich hierherkomme.

ELIZA: Ihr Freund wollte, dass Sie hierherkommen?

FRAU: Er sagt, ich sei oft depressiv.

ELIZA: Es tut mir leid, dass sie depressiv sind.

FRAU: Es stimmt ja auch. Ich fühle mich unglücklich.

ELIZA: Glauben Sie, dass es Ihnen dabei hilft, sich weniger unglücklich zu fühlen, wenn Sie hierherkommen?

Weizenbaum verstand ELIZA als Parodie eines psychotherapeutischen Gesprächs. So war er ziemlich verblüfft, dass professionelle Therapeuten sich dafür aussprachen, ELIZA zu einem echten Behandlungsinstrument weiterzuentwickeln, während andere ELIZA als Beweis sahen, dass Computer die natürliche Sprache meistern könnten.

Inzwischen gibt es Karim, einen von dem Startup X2AI entwickelten Chatbot, der als »therapeutischer Assistent« bei der Betreuung syrischer Flüchtlinge eingesetzt wird. Der Bot bietet eher Hilfe und Unterstützung als Behandlung an, eine wichtige juristische und ethische Unterscheidung. Außerdem schauen Karim menschliche Aufpasser über die Schulter. Dennoch wirft er die Frage auf, ob wir uns womöglich genau auf dem Weg befinden, vor dem Weizenbaum warnte.

ELIZA zeigt uns auch, dass wir vorsichtig damit sein sollten, ein Verhalten als Ausdruck von Intelligenz zu deuten. Wir lassen uns leicht täuschen. Und wir neigen dazu, die Fehler zu übersehen, die Maschinen aufgrund von Inkompetenz machen. Schließlich unterlaufen auch Menschen beim Reden ständig kleine Irrtümer, über die wir umstandslos hinwegsehen. Ich werde darauf im Zusammenhang mit Turings berühmtem Test für Künstliche Intelligenz zurückkommen.

Fehlschläge der Anfangszeit

Neben diesen frühen Erfolgen gab es auch einige Fehlschläge. Einer davon war die Übersetzung durch Computer. Die Idee, Übersetzungen von einer Sprache in eine andere von Computern ausführen zu lassen, kam schon 1946 auf, und in den 1950er und 1960er Jahren wurden dazu mehrere Projekte gestartet. Der Kalte Krieg verstärkte das Interesse des US-Militärs an Übersetzungen aus dem Russischen und anderen Sprachen ins Englische.

Mit der automatischen Übersetzung durch Maschinen kam man anfangs nur langsam voran. Übersetzen erfordert Kenntnisse von Grammatik, Semantik, Syntax, idiomatischen Wendungen und vielem mehr – und das sowohl in der Quell- als auch in der Zielsprache. Man kann nicht einfach Wörter durch andere ersetzen. Ein oft zitiertes Beispiel ist die Übersetzung des Satzes »Der Geist ist willig, aber das Fleisch ist schwach« ins Russische und wieder zurück in die Ausgangssprache. Das Ergebnis: »Der Wodka ist gut, aber der Braten ist verdorben.« Zwar ist das wahrscheinlich nur eine Anekdote, veranschaulicht aber dennoch die grundsätzlichen Probleme der Maschinenübersetzung.

Im Jahr 1964 gründeten drei Organisationen, die an Maschinenübersetzung forschten (das amerikanische Verteidigungsministerium, die National Science Foundation und die CIA) ALPAC, das Automatic Language Processing Advisory Committee, um sich einen Überblick über das bisher Erreichte zu verschaffen. Die Bilanz fiel mager aus, worauf die Finanzierung für dieses Forschungsfeld radikal zusammengestrichen wurde. Zwei Jahrzehnte später, als neue, vielversprechende statistische Methoden aufkamen, begannen die Mittel wieder reichlicher zu fließen. Heute steht die Maschinenübersetzung längst im Rampenlicht und ist aus dem Alltag kaum noch wegzudenken. Googles Übersetzungs-Tool »Google Translate« transferiert jeden Tag zwischen den verschiedensten Sprachen eine Textmenge, die eine Million Bücher füllen könnte. Noch beeindruckender ist vielleicht der Skype Translator, der gesprochenes Englisch, Spanisch, Französisch, Deutsch, Italienisch oder Mandarin fast in Echtzeit übersetzt. Maschinenübersetzung, ein Traum, der in den 1960er Jahren nahezu unerreichbar schien, ist in greifbare Nähe gerückt.

Ein weiterer großer Fehlschlag war die Spracherkennung. Bell Labs, viele Jahre lang das Forschungsinstitut der mächtigen amerikanischen Telefongesellschaft AT&T, war begreiflicherweise an Computern interessiert, die gesprochene Sprache verstehen konnten.60 Im Jahr 1952 entwickelten die Bell Labs ein System, das einstellige gesprochene Zahlen erkennen konnte, allerdings nur von einem bestimmten Sprecher. Doch die Forschungsgelder flossen spärlicher, als John Pierce61, der Chefentwickler des ersten kommerziellen Telekommunikationssatelliten Telstar, 1969 in einem Artikel die Spracherkennung mit »Bemühungen, Wasser in Benzin zu verwandeln, Gold aus dem Meer zu sieben, den Krebs zu besiegen oder den Mond zu besiedeln« verglich und kategorisch verneinte, dass es jemals möglich sein werde, Spracherkennung für eine Vielzahl von Sprechern und ein umfangreiches Vokabular zu realisieren.62 Auch ein von der DARPA, dem Forschungsinstitut des amerikanischen Verteidigungsministeriums, das zahlreiche technische Entwicklungen entscheidend förderte, aufgelegtes Programm zur Spracherkennung brachte keinen Durchbruch. Es lief ab 1971 für fünf Jahre und unterstützte Forschungsprojekte bei BBN, IBM, an der Carnegie Mellon und dem Stanford Research Institute. Enttäuscht vom ausbleibenden Erfolg, ließ die DARPA das Programm schließlich auslaufen.

Diese Projekte zur Spracherkennung und Maschinenübersetzung waren für die 1960er und 1970er Jahre einfach noch zu ambitioniert. Doch in den letzten Jahren hat man auf diesem Gebiet einen großen Sprung nach vorn gemacht. Der Schlüssel zum Erfolg war eine Technik des Maschinenlernens, die wir uns in Kürze genauer ansehen werden: Deep Learning. Alle wichtigen kommerziellen Spracherkennungssysteme nutzen sie heute.63 Speicher- und Rechenkapazität haben viel dazu beigetragen, aber auch die Algorithmen wurden verbessert. Spracherkennung über ein weites Feld von Sprechern und ein umfangreiches Vokabular sind heute machbar. Wer zweifelt, braucht nur einmal Smartphone-Apps wie Siri oder Cortana zu benutzen.

Wie bringt man dem Computer Alltagswissen bei?