vorheriger
Artikel
nächster
Artikel
Titel: Der gerissene Faden · von Manuel Bonik · S. 70 - 76
Titel: Der gerissene Faden , 2001

MANUEL BONIK
Erewhon forever

BEMERKUNGEN ZUM VERHÄLTNIS VON KUNST UND WISSENSCHAFTLICHEN THEORIEN DES GEISTES

„Ich entsinne mich besonders einer der ersten Schriften, die eine zusammenhängende Darstellung des Krieges enthielten. Der Zeichner hatte einen flüchtigen Umriss von einer der Kriegsmaschinen gemacht und damit hörten seine Kenntnisse auf. Er stellte sie als schiefe, steife Dreifüße dar, ohne Biegsamkeit und Gewandtheit, was irreführend eintönig wirkte. Die Schrift, welche diese Skizze enthielt, hatte einen bedeutenden Ruf, und ich erwähne sie hier nur, um den Leser von den Eindrücken zu warnen, die sie hervorgebracht haben mag. Dieses Bild glich den Marsleuten, die ich in Aktion sah, um kein Haar mehr als etwa eine Puppe einem menschlichen Wesen. Für meine Begriffe hätte die Schrift
ohne das Bild an Wert gewonnen.“
H. G. Wells: Der Krieg der Welten1

„Tatsächlich ist ein systematisches Verfahren nur ein Geduldsspiel, bei dem es nicht mehr als einen auftretenden Zug in jeder der möglichen Positionen gibt und bei dem dem Endergebnis eine gewisse Bedeutung beigemessen wird.“
Alan Turing: Solvable and
unsolvable Problems2

Dem Wunsch nach Aufklärung steht oft genug ein global motivierter Hang zum Agnostizismus gegenüber. Während wir uns spezielle Fragen – „Wo bitte geht’s hier zur Auguststraße?“ – gerne beantworten lassen, löst der universelle Erklärungsanspruch der Naturwissenschaften, gerade wegen seiner Erfolge, Abwehrreaktionen aus. Sie speisen sich, sei behauptet, teils aus der Angst, Entmythisierung könnte zu einer „kälteren“ Welt führen – Wissenschaft als Feind des Soziallebens und des „Mitmenschlichen“ -, teils aus Faulheit, alte Denkgewohnheiten aufgeben und sich ein neues Weltbild zulegen zu müssen. Einiges an der Angst ist durchaus berechtigt: die Entwicklung Künstlicher Intelligenz beispielsweise würde vor die ethische Alternative stellen, Androiden sukzessive Menschenrechte zuzuerkennen oder umgekehrt Menschen diese zusehends abzuerkennen, würden sie sich doch als Automaten erweisen, auf die die alten humanistischen Kriterien nicht mehr zutreffen; das „Menschliche“ fände sich zusehends entwertet.

Schon kündigt auch Bill Joy, Chefwissenschaftler von Sun Microsystems, via Wired bzw. FAZ an, dass in 30 bis 50 Jahren Roboter in Sachen Intelligenz mit den Menschen gleichziehen werden, um sich fürderhin zu einer Spezies zu entwickeln, die diese dann flugs überflügeln wird. Auch der, während ich dieses schreibe, aktuelle Spiegel (24 / 12.6.2000) fragt über mehrere Seiten, ob Computer (eines Tages) denken können, und lässt sich die Frage pro und contra beantworten. Insofern dabei Zeitrahmen der Entwicklung angegeben werden, stützen sie sich zumeist auf das empirisch recht gut belegte Gesetz von Intel-Mitbegründer Gordon Moore, demgemäss sich die Prozessoren-Leistungen alle eineinhalb Jahre verdoppeln. Rechengeschwindigkeit ist freilich nicht alles, wenn es um so komplexe Dinge wie Intelligenz und Bewusstsein geht, und warum, zeige ich an einem Beispiel weiter unten. Auch halte ich es für müßig, in das Horn irgendwelcher Propheten à la Hans Moravic oder Raymond Kurzweil zu stoßen. Allerdings bin ich von der Tendenz der Entwicklung durchaus überzeugt und halte Künstliche Intelligenz für möglich.

Den Redakteuren der wertkonservativen FAZ scheint es inzwischen ähnlich zu gehen: wo die Idee Künstlicher Intelligenz lange Zeit mit Selbstverständlichkeit abgetan wurde, machen Entwicklungen wie das Human Genome Project sie offensichtlich zusehends plausibler: menschliches Verhalten als Exekution eines von der Evolution geschriebenen Programms, ohne metaphysischen Rest, Gott ist tot, der Über- oder vielmehr: Nach-Mensch in Entwicklung begriffen. Lauter wird der Ruf nach Verbot bestimmter Forschungszweige und Einschränkung der Informationsfreiheit.3 Es könnte der Tag kommen, an dem demokratische Mehrheiten (wenn sie dann noch etwas zu bestimmen haben) feststellen, dass ihnen eine Welt à la Samuel Butlers „Erewhon“ lieber wäre. Bedenkt man, dass noch heute darwinistische Lehren an manchen amerikanischen Schulen verboten sind und werden, scheint das nicht nur abwegig.

Als mittlere Alternative böte sich an, das Internet und den Rest der Unterhaltungsindustrie unter die Kontrolle von Disneyland, Scientology und ähnlichen Organisationen zu stellen, auf dass dort den arbeitslosen Massen die ewig selben „humanistischen“ Erzählungen – und nur sie – endlos wiederholt werden: Leib-Seele-Dualismus, die unerschöpflich tiefen Gründe der Kreativität, die Spontaneität der Intuition, Holismus etc. Währenddessen werden körperliche und zunehmend geistige Arbeiten von Androiden verrichtet und die Forschung arbeitet in wohlabgeschirmten Labors; sie macht sich fürderhin nur noch in Weisen bemerkbar, die einerseits die materiellen Bedürfnisse befriedigen, andererseits aber die Massen-Mythen noch verstärken: durch Manna-Regen beispielsweise.

Ich wäre weniger polemisch, wenn nicht auch und gerade in der Bildenden Kunst – trotz progressiven Nimbus‘ – die abklärerische Tendenz überwiegen würde.4 Es herrscht da, die sogenannten Computerkünstler einmal ausgenommen, eine selbstgewählte splendid isolation gegenüber naturwissenschaftlichen Theorien, die mich immer wieder erstaunen macht. Wo im Kunstdiskurs Künstliche Intelligenz oder Kognitionswissenschaften angesprochen werden, da als Verhöhnung oder globale Kritik, bevor auch nur die ersten Details verstanden wurden.5 Die Heftigkeit der Abwehr motiviert sich vermutlich aus der Ahnung, dass hier tatsächlich radikale Umwälzungen des künstlerischen Selbstverständnisses dräuen. Generell paralysiert wohl auch der schiere Drive der Naturwissenschaften, zu deren Fortschritten Vergleichbares die Kunst zur Zeit schlichtweg nichts zu bieten hat. Aus Unerwünschtem wird da schnell Unmögliches, aus einem „es darf nicht sein“ ein „es geht prinzipiell nicht“. Wo aus solcher Perspektive Theorie gefordert ist, da zumeist solche, die eifrigst Aporien konstatiert. Weit unter dem Niveau, wo sich ernsthafte Fragen stellen könnten, überantwortet man Entscheidungen dem Orakel und nimmt dessen kryptische Äußerungen als Beleg menschlicher, gar künstlerischer Freiheit.

Computertheorie des Geistes

Zentrales Paradigma von Kognitionswissenschaft und Künstlicher Intelligenz ist die „Computertheorie des Geistes“6 und hier im besonderen und in unterschiedlichen Ausprägungen das Modell der Turing-Maschine (im Folgenden: TM). Es wurde in den 30er Jahren durch Alan Turings berühmten Aufsatz On Computable Numbers, with an Application to the Entscheidungsproblem7 eingeführt und lieferte erstmals eine präzise Definition der Klasse der Algorithmen. TMn wurden so zur wesentlichen theoretischen Grundlage zur praktischen Verwirklichung des Computers. Andere, zur gleichen Zeit entworfene Modelle8 erwiesen sich als äquivalent und vor allem auch als nicht mächtiger. Auch der Umstand, dass bis heute keine Programmiersprache oder Computerstruktur (Fuzzy Logic, Parallelprogrammierung, neuronale Netze etc.) gefunden wurde, die mehr kann als eine TM, gibt einen starken empirischen Hinweis darauf, dass hier tatsächlich ein Modell gefunden wurde, das alles, was wir irgend mit „Zusammenhang“, „Ähnlichkeit“, „Struktur“, „Verfahren“ etc. ansprechen können, sich mit diesem Modell erfassen lässt. Es mag sein, dass es Naturvorgänge gibt, für die das nicht gilt, allerdings sind diese einem menschlichen Verständnis dann vermutlich auch generell verschlossen. Versuche, auch von berufener Seite, gegenteilig zu argumentieren, konnten bislang nicht überzeugen.9

Sollte es zutreffen, dass sämtliche geistigen Leistungen, die überhaupt einem Verständnis zugänglich sind, durch TMn präzise wiedergegeben und ergo programmiert werden können, gilt dies freilich auch für künstlerische Leistungen. Generell ist das kränkend für das menschliche Selbstverständnis, das Konzept vom freien Willen beispielsweise müsste aufgegeben werden. Kunsttheorie und -praxis könnten sich zum Widerspruch aufgefordert sehen, von dort habe ich allerdings noch nicht einmal Ansätze von relevanten Gegenargumenten vernommen, sondern nur Ausdrücke pauschalen Unwillens, erklärbar zu sein. Im „Buch zur documenta X“ beispielsweise findet sich zu der Thematik gerade mal ein einziger Text von Dominique Lecourt, der zwar im großenganzen gut informiert ist, aber immer genau dann, wenn es interessant werden könnte, vage wird und bezeichnenderweise bei den angedeuteten Gegenpositionen noch die Quellenangaben schuldig bleibt.10

Der Wunsch nach Erklärungen von Kunstwerken bleibt da oft genug nur eine Geste der Konvention. Gefragt sind Erläuterungen, PR-Texte, Theorie-Häppchen, die dem Tun des betroffenen Künstlers im Verkaufsgespräch ein wenig Bedeutung verleihen. Trotz der offensichtlichen Stereotypizität, mit der in der Regel etwa Ausstellungsbesprechungen daherkommen, soll der Künstler aber stets als besonderes Individuum mit einem Werk individueller Bedeutung dargestellt werden. Aber die Erklärungen sollen eben auch nicht zu präzise sein, sollen schließlich doch in Verklärungen münden. Eine präzise Erklärung für ein Kunstwerk wäre das Aufzeigen von expliziten Programmen – TMn – für seine Herstellung und seine Interpretation(en). Dass das eines Tages möglich wird, scheint mir plausibel (und birgt allerdings die Konsequenz, dass die avancierteste Kunst schließlich nur noch von Computern gemacht und verstanden werden kann).

Wer sich allerdings von Kunst Metaphysik verspricht, wird sie durch solches entweiht und entwertet finden. Gerade auch in der Kunst herrscht „ein Widerwille, sich die Möglichkeit einzugestehen, dass der Mensch in seinen intellektuellen Fähigkeiten Konkurrenz bekommen kann. Unter Intellektuellen kommt dies nicht minder vor als unter den übrigen Leuten: sie haben mehr zu verlieren.“11 Daher sind in der Kunstwelt auch immer wieder Theorien in Mode, die Dunkelheit versprechen. Im Hinblick auf Naturwissenschaften naiv und voller Ressentiments, wirft sich die Kunstwelt nur zu gern auf charismatische Philosophien, die Erklärbarkeit an sich wegzureden versuchen. Im Falle von „Nichtlinearität“ (dem Thema dieser Ausgabe des Kunstforums) mag die Faszination vom verneinenden Präfix ausgehen, es verspricht Subversion des Gebäudes der Rationalität.

Um nichtlineare Systeme, „deren kennzeichnende Eigenschaften in den Interaktionen zwischen dem bestehen, was man jeweils als die „Teile“ dieser Systeme auffasst, während die Eigenschaften dieser „Teile“ zum Verständnis des Funktionierens dieser Systeme als Ganzes wenig oder gar nichts beitragen“12, in den Griff zu kriegen, hat schon Heinz von Foerster vorgeschlagen, sich TMn als der allgemeinsten (mächtigsten, nicht: pauschalsten) Ordnungsmechanismen zu bedienen.13 Er kann indes auch nur die Momente jener Phänomene gemeint haben, die überhaupt einem Ordnungsmechanismus zugänglich sind. Man wird unterscheiden müssen zwischen ihren bereits „sinnhaften“ Teilen, den Teilen, die überhaupt mittels Empirie noch sinnhaft gemacht werden können, und jenen, für die sich aus prinzipiellen Gründen überhaupt kein und auch nicht das primitivste Gesetz oder dergleichen finden lässt. Sie sind dann allerdings „sinnlos“, „Chaos“, und wir können nicht die geringste Aussage über sie treffen, im besonderen nicht die, dass hier etwas dem „Wesen der Kunst“ Vergleichbares vorläge.

„Der Holismus, der Glaube an das Wesen im Ganzen, an die Gestalt, wird so zu einer unerschöpflichen Quelle der Kritik an jeder Art von Konstruktion und Erkenntnis. Er stellt der Landgewinnung das Meer entgegen und der Erkenntnis das Chaos. Vielleicht drückt sich in ihm deshalb diese rechthaberische Haltung des Besserwissens aus, die so unerträglich für jeden erscheint, der sich nicht schon im Sessel bloß beobachtender Vernunft und Kritik zurückgelehnt hat.“14 – Die Beschäftigung mit TMn lehrt, sich Dinge „klar und deutlich“15 zu machen. Pauschale Diskussionen darüber, ob etwas möglich ist oder wie es beschaffen ist, löst man dann vielleicht am liebsten, indem man es herstellt oder indem man einen Beweis dafür findet, dass es sich nicht herstellen lässt.

What Computers can’t do16

Das Ressentiment der Kunstwelt gegenüber dem Mechanistischen mag auch von einem Maschinen-Begriff herrühren, wie ihn das 19. Jahrhundert geprägt hat. Man denkt an Dampfmaschinen und Zahnradgetriebe, im Film sprechen Roboter noch stets abgehackt und in gleichförmiger Prosodie; noch Deleuze / Guattari haben Fabrikhallen vor Augen, wenn sie von „Wunsch-Maschinen“ sprechen.17 Es bedarf praktischer Erfahrungen mit TMn / Programmen, um vom Pathos der Auffassung geheilt zu werden, Maschinen seien eine stumpfe Angelegenheit und täten stets nur dasselbe.

TMn als mathematische Konstrukte bedürfen gewisser idealtypischer Bedingungen und sind ihrem Wesen nach deterministisch. Dieselbe Maschine wird unter gleichen Bedingungen stets dasselbe tun, was aber nicht heißt, dass dieses Tun nicht von größter Subtilität sein kann.18 Damit erweisen sich im besonderen auch Computer als gutes Beispiel für nichtlineare Systeme im Sinne der Chaostheorie: Winzige Änderungen – ein einziges abweichendes Bit – im Programm können gewaltige Folgen haben. Oft werden sie vielleicht nur zum Absturz oder einem Endloslauf des Systems führen. Grundsätzlich können die Wirkungen einer solchen Änderung aber auch „qualitative“ sein.

Hier spielt im besonderen der Begriff der Rekursion eine Rolle, nämlich die Möglichkeit, dass eine Maschine auf ihre Umgebung einwirkt – Zeichen schreibt -, um diese Zeichen zu einem späteren Zeitpunkt ihres Laufs wieder zu lesen und daraus für sie verhaltensrelevante Entscheidungen zu treffen.19 Die physikalische Beschaffenheit einer solchen Umgebung ist, Stabilität im Hinblick auf die zu ihr sich verhaltende Maschine vorausgesetzt, gleichgültig: die Maschine kann ihre Zeichen auch in Eis meißeln oder in den Strand zeichnen. Turing leitete indes seine Maschinendefinition von der (als Gedankenexperiment verfassten) Beobachtung eines rechnenden Menschen (englisch: Computer) ab und idealisierte die Maschinenumgebung als eindimensionales, in diskrete Felder unterteiltes Papierband20, auf dem die Maschine mit einem endlichen Alphabet von mindestens zwei Zeichen21 operiert; auch für die Beschreibung der Maschine (des Programms) genügen grundsätzlich zwei Zeichen.

Eine TM interagiert mit dem Band mittels eines Lese-Schreib-Kopfes. Das Programm einer TM ist im wesentlichen durch eine (endliche) Anzahl von Zuständen festgelegt. In jedem Zug liest die TM jeweils das Zeichen auf einem Bandfeld, und abhängig von diesem und ihrem jeweiligen Zustand ergibt sich nun:

das Zeichen, das die TM an die Stelle des gelesenen schreibt;
das (Nachbar-)feld, das sie als nächstes bearbeiten wird;
der Zustand, in den sie übergeht.

Ein Zustand der TM ist schließlich als Halte-Zustand ausgezeichnet. Hat die Maschine diesen erreicht, ist ihre Operation beendet und wir können deren Ergebnis auf dem Band inspizieren.

Ich verkneife mir eine weniger oberflächliche Darstellung (etwa) der (energetischen) Verhältnisse und will nur nochmals betonen, dass damit die elementaren Charakteristiken jedes Computerprogramms gegeben sind sowie eben auch wesentliche Wesenszüge des Denkens.22 Spontan mögen manchem die Verhältnisse allzu primitiv erscheinen, aber die Primitivität von TMn birgt auch große Vorteile für theoretische Überlegungen. In der Praxis wird man höheren Programmiersprachen allemal den Vorzug geben.

Das Halte-Problem

Unseren Erkenntnismöglichkeiten sind Grenzen gezogen und im speziellen können auch Computer nicht einfach alles.23 Dies zu sehen, muss man aber weder Gott noch den hehren Geist der Kunst noch agnostizistische Nebel beschwören. Es lässt sich hübscherweise auch mathematisch und anhand der völlig deterministischen TMn beweisen.

Ich hatte eben vom Halte-Zustand der TMn geschrieben. Im strengen Sinn der Theorie sind nur TMn von Interesse, die diesen Zustand auch wirklich erreichen; solange ein Programm noch arbeitet, können wir nicht sagen, es habe ein Ergebnis hervorgebracht.

Die Theorie unterscheidet also drei Arten von TMn:

1) TMn, von denen wir wissen24, dass sie halten (hier kurz: haltende TMn);

2) TMn, von denen wir wissen, dass sie nicht halten (nicht-haltende TMn)25;

3) TMn, von denen wir nicht wissen, ob sie halten oder nicht.

Eine haltende TM wäre beispielsweise eine, die zwei ganze Zahlen addiert. Wir wissen, früher oder später wird sie in jedem Fall zu einem Ergebnis kommen. Ein Beispiel für eine nicht-haltende TM wäre eine, die uns die letzte Stelle von p errechnen soll: sie könnte rackern und rechnen, wie sie wollte – ganz klar, sie wird nie zu dem gewünschten Ergebnis kommen. Argumentationen mit aktualer Unendlichkeit sind m.E. ohnehin nur rhetorischer Natur (auch ¥ ist nur ein, endliches, Zeichen). In der Praxis wird man für nichthaltende TMn, wenn möglich, irgendein Konvergenzkriterium einführen, um sie zu haltenden TMn zu machen, und etwa die Anzahl der Stellen oder die Rechenzeit begrenzen.

Die TMn vom Typ 3) bescheren uns das berühmte Halteproblem für TMn: Es gibt keine TM, die für alle TMn feststellen kann, ob sie halten oder nicht.

Man illustriert sich die Situation z.B., wenn man vor dem Rechner sitzt und einem eine Sanduhr signalisiert, dass man warten muss. In der Regel warten wir hier auf das Ergebnis einer haltenden TM. Es kann aber sein, dass aus irgendwelchen (z.B. Test-) Gründen eine nicht-haltende TM in Gang gesetzt wurde (der Rechner ist nicht unbedingt „abgestürzt“: die TM hat nicht angehalten – dann hätten wir ja ein Ergebnis -, sondern sie rechnet einfach immer weiter). Genaueres wissen wir erst, wenn die Sanduhr sich verabschiedet hat und das Ergebnis vorliegt. Nach einer Million Jahren Berechnung würden wir vielleicht ad hoc die Entscheidung treffen, dass wir hier mit einer nicht-haltenden TM zu tun haben und es darum sinnlos ist, weiter auf ein Ergebnis zu warten. Wir brechen den Prozess ab – während jemand anderes unter den gleichen Umständen 1 Million Jahre und 1 Minute gewartet hat, und zu diesem Zeitpunkt von einer eben tatsächlich haltenden TM ein Ergebnis erhalten hat. So kann’s gehen. Glauben ist nicht Wissen.

Ich verzichte auf einen formalen Beweis des Behaupteten.26 Die Nicht-Entscheidbarkeit des Halteproblems ist (wie etwa auch die Nicht-Entscheidbarkeit des Entscheidungsproblems) ein klassisches Ergebnis der Automatentheorie und zeigt, dass es tatsächlich Fragen gibt, auf die Computer keine Antwort haben. Es ist übrigens in keinster Weise praxisfern, ist doch das Testen eines Programms – herauszufinden, ob es unter allen regulären Umständen überhaupt (und dann noch in korrekter Weise) hält – meist das aufwendigste Moment bei seiner Entwicklung. Und erwiesenermaßen wird man immer auf Empirie angewiesen sein, um eine TM vom Typ 3 schließlich als eine vom Typ 1 oder vom Typ 2 deklarieren zu können. Und Empirie heißt seit Turing: Gibt es ein Verfahren, dass ein gegebenes Problem löst, so gibt es auch eine TM, die dieses Verfahren verkörpert (Church-Turing-These). Umkehrschluss: Gibt es nachweislich keine TM für ein Problem, gibt es auch generell kein Verfahren dafür. Als These wartet die Church-Turing-These natürlich auf ihre Falsifikation, das aber schon seit über einem halben Jahrhundert.

Man muss sich in diesem Zusammenhang auch vor Fehlschlüssen hüten, wie sie etwa Penrose macht. Denn aus der Feststellung, dass TMn etwas prinzipiell nicht können, folgt nicht die Überlegenheit des menschlichen Geistes (und Ähnliches gilt für Gödels „Unvollständigkeitssatz“ oder unsere Probleme angesichts nichtlinearer Systeme), sondern nur eine extrem hohe Plausibilität, dass dieser auch keine Verfahrensweise dafür finden kann. Sollte es gelingen, die Church-Turing-These zu falsifizieren, sollte es also gelingen ein effektives Verfahren für etwas darzustellen, das nicht durch eine Turing-Maschine verkörpert werden kann, wäre das allerdings eine Sensation.

Klischees

Insofern wir nicht vom Prinzipiellen und nur vom technischen Stand der Dinge sprechen, ist die Feststellung, dass Menschen etliches können, was TMn (noch) nicht können, freilich trivial. Von einer vollständigen Modellierung unserer Sensorik beispielsweise sind wir m.E. mindestens noch Jahrhunderte entfernt, den Weg dorthin wird man vor allem auch über Hybridisierungen gehen.

Dass Menschen einstweilen funktionieren, hängt auch damit zusammen, dass wir in der Regel mit Klischees vorliebnehmen und dafür Fehlschlüsse in Kauf nehmen. Dem nichtlinearen System des Wetters beispielsweise gegenüber begnügen wir uns mit Faustregeln, auf die Gefahr hin, dass die Ernte verhagelt ist. Auch etwa bei der Bewertung eines Kunstwerks begnügen wir uns mit einer endlichen Anzahl von Anhaltspunkten, um zu einem Urteil zu kommen, von dessen Richtigkeit wir prinzipiell niemals überzeugt sein können. Wir können nur eine Teilmenge der Zeichenkette, die das Kunstwerk ist, herausgreifen und versuchen, dieser eine Regel (eine TM) zu unterlegen, aus der dann aber außer Klischees nichts folgt, was über die Teilzeichenkette hinausginge.

Solche Klischeebildungen können sehr subtil sein, zur einfacheren Illustration der Behauptung abermals ein mathematisches Beispiel27: Man legt mir die Zeichenkette

1 1 2 3 5 8 13 21 34 55 _

vor und fragt mich, was sie 1) wohl bedeutet und 2) wie womöglich ein nächstes Zeichen – _ – heißt. Die Frage nach der Bedeutung ist eine Frage danach, welche TM auf dieser Zeichenkette „laufen“ kann – sie „akzeptiert“28. Die Frage nach dem nächsten Zeichen ist eine Frage nach einer TM, die sie „generiert“ und damit dann eventuell auch weitere Zeichen. Antworten auf diese Fragen gibt es beliebig viele: es gibt beliebig viele TMn, die alles mögliche tun und dabei auch die vorgelegte Zeichenkette akzeptieren bzw. generieren würden. Diese beliebig vielen TMn aufzuzeigen, wäre allerdings ein karges Vergnügen. Zum Beispiel könnte ich einfach eine TM angeben, die diese Zeichenkette und dann noch irgendein beliebiges Zeichen hinschreibt; das wäre in etwa, wie wenn ich die Frage nach dem Sinn eines Bildes beantworten würde, indem ich das Bild 1 : 1 nochmals malte und noch irgendeine beliebige Änderung hinzufügte. Grundsätzlich könnte die Zeichenkette auch willkürlich oder zufällig sein. Aber unser „Verlangen nach Sinn“ erwartet eine kompakte Antwort, die sich auf weitere Fälle beziehen lässt; in der Regel wird eine Rekursion gefragt sein.

Eine Antwort wäre zum Beispiel: Es handelt sich um eine Fibonacci-Folge. Bei einer solchen wird bekanntlich jedes Zahlenglied – von der willkürlich zuerst gesetzten „1“ einmal abgesehen – als Summe seiner beiden Vorläufer gebildet. 1 + 1 = 2, 1 + 2 = 3, …, 21 + 34 = 55, und die nächste Zahl wäre dann logischerweise 89 (= 34 + 55).

Fragen 1) und 2) wären damit erfolgreich beantwortet. Allerdings ist „Fibonacci-Folge“ eine einzige von prinzipiell beliebig vielen Antworten,. Eine ebenso gültige Antwort wäre nämlich zu zeigen, dass sich die obige Folge bildet, indem man jeweils die nächstgrößere natürliche Zahl (das ceiling) zu den Ergebnissen folgender Formel angibt:

(en-2),

wobei e = 2,71828…, nämlich die Basis des natürlichen Logarithmus ist.

Für n = 1 ergibt sich 1, für n = 2 ebenfalls, für n = 3 heißt das Ergebnis 2, etc. Für n = 10 ergibt sich dann 55, und bis dahin stimmt alles wunderbar mit der „Fibonacci-Folge“ überein. Für n = 11 ergibt sich dann allerdings 91 (statt der Fibonacci-Zahl 89) und für n = 12 ergibt sich 149 (Fibonacci-Zahl 144).

Das Beispiel ist relativ einfach, aber doch komplex genug, um lehrreich zu sein: eine Zeichenkette hat nicht per se eine Struktur. Aus der Zeichenkette als solcher lässt sich nichts folgern. Man muss die Maschine kennen, die die Zeichenkette generiert oder akzeptiert. Diese Maschine ist die Folgerung.

Kreativität

Wird es schließlich Computer geben, die kreativ sind und Kunst produzieren? – Ich glaube, ja, und sehe das Problem vor allem darin, dass Kunst von Computern – wo sie denn als solche noch zu erkennen ist – von Menschen erst mal nicht akzeptiert werden wird. Mit Computern gemachte Kunst zeigt sich seit einer Weile auf dem Vormarsch (und eine Implikation der Church-Turing-These ist ja, dass jedes Verfahren zur Erzeugung von Kunst prinzipiell auch von Computern angewendet werden könnte)29, von Computern gemachte Kunst wird auf weit stärkere Akzeptanzprobleme treffen, dies allerdings nicht aus ästhetischen Kriterien, sondern einfach weil sie Kunst von Computern ist. Von ziemlich vielem anderen abgesehen, müssten Computer dazu kreativ werden. Wie dies zu bewerkstelligen ist, darüber machte sich Alan Turing Gedanken: „Jede Maschine sollte mit einem Band ausgerüstet sein, auf dem sich eine Zufallsfolge von Ziffern befindet, z.B. 0 und 1 mit gleicher Häufigkeit, und diese Ziffernfolgen sollten bei den Wahlen der Maschine verwendet werden. Das hätte ein Verhalten der Maschine zur Folge, das nicht in jeder Hinsicht vollständig durch die Erfahrungen, denen sie ausgesetzt war, determiniert ist, und implizierte einige wertvolle Anwendungen, wenn man mit ihr experimentierte.“30

Gegner dieser Idee stützen sich zumeist auf „Analog versus Digital“ und Fragen der „Unendlichkeit“.

Anmerkungen:
1.) Übersetzt von G.A. Crüwell und Claudia Schmölders.
2.) Übersetzt von Bernhard Dotzler und Friedrich Kittler.
3.) So bei Joy, aber etwa auch in Adam 2000.
4.) Die Alternative wäre Kunst als eine freie, experimentelle Heuristik, als eine Art Proto-Wissenschaft, die eifrig klotzen kann, wo die Experten sich im wuchernden Dickicht der Details verlaufen. Vgl. Bonik 1996.
5.) Einen gewissen Erfolg in der Kunstszene haben dann bezeichnenderweise solch verquaste Bücher wie nullen + einsen von Sadie Plant.
6.) Vgl. etwa Münch, S.7-53. Als populäre Einführung in die bekanntesten Streitfragen der Thematik ist auch Casti 1998 brauchbar.
7.) Vgl. Turing 1936/37. Eine zugängliche Darstellung ist uns hoffentlich mit Wiener / Bonik / Hödicke gelungen (im Folgenden: WBH).
8.) Gleichungskalkül, partiell-rekursive Funktionen, Lambda-Kalkül etc. Vgl. Wiener etc., 119.
9.) Vgl. etwa Penrose 1991 und die Erwiderung Grush / Churchland 1996.
10.) Vgl. Lecourt 1997.
11.) Alan Turing 1959, 83.
12.) Foerster 1985, 17f. Hervorhebungen von ihm.
13.) Vgl. ebenda, S. 19ff.
14.) Mahr 1989, 97.
15.) Descartes 1924, 161.
16.) So der Originaltitel von Dreyfus 1989, einem der bekanntesten Bücher wider die Idee Künstlicher Intelligenz. In späteren Auflagen fügte der Autor ihm allerdings ein „yet“ hinzu.
17.) Deleuze / Guattari 1995, 520f.
18.) In WBH, 147, finden sich mit den unter Automatentheoretikern berühmten „busy beavers“ verblüffende Beispiele.
19.) Man verzeihe mir anthropomorphisierende Ausdrücke wie „Verhalten“ oder „Entscheidung“, die ich hier nur zugunsten der Lesefreundlichkeit verwende. Es liegt mir fern, irgendeiner einzelnen TM intentionale Zustände, Qualia oder dergleichen zuzusprechen.
20.) Vgl. Turing 1936/37. Bei Dotzler / Kittler: 40-43.
21.) Die berühmten „0“ und „1“. Freilich kann man mit jeder Art von Dichotomie arbeiten: ja/nein, hoch/tief, Anwesenheit/Abwesenheit, Magnetspeicher beispielsweise mit „Ladung“ oder „keine Ladung“. Vgl. Shannon 1974 oder WBH, Kapitel 9.
22.) Der Weg von TMn zu einer Gehirnarchitektur ist freilich ein recht weiter. Zur Zeit arbeitet Oswald Wiener an einem Buch, in dem er seine Mindestanforderungen an eine solche darlegen will.
23.) Speziell hat hier auch leichtfertige Verwendung des Begriffs der „Universellen Turing-Maschine“, im speziellen durch Kulturwissenschaftler, für viel Verwirrung gesorgt. Klärendes dazu in WBH, Kapitel 12.
24.) Woher wir dieses Wissen haben, diskutiere ich hier nicht.
25.) Üblicherweise gelten TMn, von denen man einmal weiß, dass sie nicht halten, über dieses Wissen hinaus der Theorie als wertlos. Hier zeigt sich einmal mehr ein Grund, warum Turings Formalismus – grundsätzlich ja nicht mächtiger als die von Church oder Gödel – unser spezielles Interesse verdient: Wir können auch das Verhalten von nicht-haltenden TMn betrachten, das ja durchaus nichttrivial sein kann.
26.) Der findet sich in WBH, Kapitel 14.
27.) Vgl. Manuel Bonik: o.T., In: bonik / jaeger: schrift (für künstliche und künstlerische intelligenz) 3, Berlin / München 1996, S. 553-656.
28.) Zu „Akzeptieren“ und „Generieren“ WBH, Kapitel 4.
29.) Ob mancher Sammler von manchem derzeit ausgestellten Bild noch so begeistert wäre, wenn er feststellte, dass die raffinierte handwerkliche Technik, deren Anwendung er zu sehen meint, tatsächlich „nur“ von einem Photoshop-Filter herrührt?
30.) Turing 1959.
Literatur:
Konrad Adam: Wissen, das kein Glück bringt. Warum die Gentechnik mit Widerstand zu kämpfen hat. FAZ vom 10. Juni 2000, S.I.
Manuel Bonik: o.T. In: bonik / jaeger (Hrsg.): schrift (für künstliche und künstlerische intelligenz, no 3, 583 ff.
John L. Casti: Das Cambridge Quintett. Berlin: Berlin Verlag 1998.
Gilles Deleuze / Félix Guattari: Anti-Ödipus – Kapitalismus und Schizophrenie I. Frankfurt am Main: Suhrkamp 19957 (1977).
René Descartes: Untersuchungen über die Grundlagen der Philosophie. In: ders., Philosophische Schriften, herausgegeben von Richard Hirsch. Berlin / Wien: Hans Heinrich Tilgner 1924, 87-179.
Bernhard Dotzler / Friedrich Kittler: Alan Turing: Intelligence Service. Berlin: Brinkmann & Bose 1987.
Hubert L. Dreyfus: Was Computer nicht können – Die Grenzen künstlicher Intelligenz. Frankfurt am Main: Athenäum 1989.
Heinz von Foerster: Die Verantwortung des Experten. In: ders., Sicht und Einsicht. Braunschweig / Wiesbaden: Vieweg 1985, S. 15-23.
Rick Grush & Patricia Smith Churchland: Lücken im Penrose-Parkett. In: Thomas Metzinger (Hrsg.): Bewußtsein – Beiträge aus der Gegenwartsphilosophie. Paderborn u.a.: Ferdinand Schöningh 19963, 221-250.
Bill Joy: Warum die Zukunft uns nicht braucht. FAZ vom 6. Juni 2000, 49/51. S.a. http://www.wired.com/wired/archive/ 8.04/joy_pr.html.
– „Manche Experimente sollten wir nur auf dem Mond wagen“. FAZ vom 13. Juni 2000, 53.
Dominique Lecourt: Ist das Denken programmierbar? In: Poetics / Politics – Das Buch zur documenta X. Ostfildern-Ruit: Cantz 1997, 654-665.
Bernd Mahr: Chaos-Connection – Einwände eines Informatikers. In: Karl Markus Michel und Tilman Spengler: Kursbuch 98 – Das Chaos. Berlin: Kursbuch / Rotbuch 1989, 83-99.
Dieter Münch: Computermodelle des Geistes. In: ders., Kognitionswissenschaft. Grundlagen, Probleme, Perspektiven. Frankfurt / Main: Suhrkamp 20002.
Roger Penrose: Computerdenken – Die Debatte um Künstliche Intelligenz, Bewußtsein und die Gesetze der Physik. Heidelberg: Spektrum der Wissenschaft 1991.
Sadie Plant: nullen + einsen. Berlin: Berlin Verlag 1998.
Claude E. Shannon: Eine universelle Turingmaschine mit wie inneren Zuständen. In: C. E. Shannon / J. McCarthy (Hrsg.): Studien zur Theorie der Automaten (Automata Studies). Erweiterte Ausgabe und Übersetzung durch Franz Kaltenbeck und Peter Weibel, mit Zeichnungen von Dieter Roth. München: Rogner & Bernhard 1974 (1956), 183-193.
Alan Mathison Turing: On Computable Numbers, with an Application to the Entscheidungsproblem. Proceedings of the London Mathematical Society (2), 42(3): 230-265, 1936; 43(7): 544-546, 1937. Deutsch in: Dotzler / Kittler 1987, 17-60.
– Solvable and unsolvable problems. Science News, Penguin Series 31, 1954. Deutsch in: Dotzler / Kittler 1987, 61-80.
– Intelligent Machinery. In: B. Meltzer / D. Michie (Hg.) , Machine Intelligence 5, Edinburgh 1969. Deutsch in: Dotzler / Kittler 1987, 81-113.