vorheriger
Artikel
nächster
Artikel
Titel: Grosse Gefühle · von Günther Palm · S. 179 - 184
Titel: Grosse Gefühle , 1994

Günther Palm
Natürliche und künstliche Intelligenz – natürliche und künstliche neuronale Netze

Künstliche Intelligenz (KI) ist heute ein eingeführter Begriff, eine Art Terminus technicus zur Beschreibung eines Forschungszweiges. Er ist eine direkte Übersetzung des englischen „Artificial Intelligence“. Künstliche neuronale Netze sind ein vereinfachtes Modell der natürlichen neuronalen Netze, also der kleinen grauen Zellen in unserem Gehirn, die intelligentes Verhalten möglich machen. Was ist das Forschungsziel der künstlichen Intelligenz? Auf der einen Seite, die existierenden Maschinen intelligenter, also schlauer, aber auch umgänglicher zu machen. Auf der anderen Seite, die natürliche menschliche Intelligenz besser zu verstehen. In beiden Fällen wird man sich auch intensiv mit der Informationsverarbeitung in künstlichen neuronalen Netzen beschäftigen müssen. Für mich steht das zweite Motiv im Vordergrund: Ich möchte verstehen, wie das menschliche Gehirn funktioniert.

Wie kann die Entwicklung von intelligenten Maschinen und Programmen zum Verständnis des menschlichen Gehirns beitragen? Darauf möchte ich im Folgenden eingehen, und zwar in drei Durchgängen, die sich auf verschiedene Problemkreise von fortschreitender Detailliertheit beziehen.

1. Das philosophische Leib-Seele-Problem.

2. Das Problem der verschiedenen Beschreibungsebenen, die in Einklang zu bringen sind.

3. Die Problematik des Vergleichs von Computer und Gehirn auf den verschiedenen Ebenen.

1. Das philosophische Leib-Seele-Problem

Dies ist ein uraltes Problem, besonders für ungläubige Menschen. Für einen gläubigen Menschen ist die Sache klar: Wir haben eine Seele, und die ist unsichtbar. Sie ist allen unseren Sinnen nicht zugänglich und auch mit verfeinerten physikalischen Meßmethoden nicht zu entdecken. Sie ist unsere ganz persönliche Verbindung zu Gott, den man ja genausowenig meßtechnisch erfassen kann. Dadurch, daß wir beseelt sind, unterscheiden wir uns sicherlich von toten Gegenständen, wie Steinen, Tischen, Uhren und Robotern.

Für einen ungläubigen Menschen stellt sich zunächst einmal die Frage, ob man Konzepte, die von vornherein als nicht sinnlich erfahrbar und auch nicht meßbar erklärt werden, nicht einfach ohne weiteres aus seinem Weltbild streichen kann. Wenn man diese Konzepte aber streicht, hat man Schwierigkeiten, etwa die Frage zu beantworten: „Was unterscheidet uns Menschen denn nun von Robotern?“

Man könnte ja sagen: „Gar nichts“, aber irgendwie ist das doch unbefriedigend, denn wir sind doch anders als diese kalten, leblosen Dinger – außerdem macht man sich mit dieser Antwort sicher keine Freunde, sprechen aus ihr doch Menschenverachtung, Herzlosigkeit und vielleicht sogar tiefe Unmoral, denn wenn Menschen Automaten sind, kann man mit ihnen ja alles machen. Bei temperamentvollen Gesprächspartnern wird dieser Schluß gelegentlich in einer Art Kurzschluß umgekehrt auf den angewendet, der den Unterschied zwischen Menschen und Robotern bestreitet. Man sollte also bei solchen Äußerungen am besten einen gewissen Sicherheitsabstand zu dem Gesprächspartner halten.

Es gibt auch eine etwas vorsichtigere und gleichzeitig gründlichere Art zu antworten, die nebenbei oft den Effekt hat, den physischen Sicherheitsabstand durch einen quasi geistigen überflüssig zu machen.

Es ist unfruchtbar, Konzepte wie Beseeltheit oder Bewußtsein als Eigenschaften von Dingen aufzufassen, weil man dann das Problem hat, alle Dinge in beseelte und unbeseelte einteilen zu müssen. Man denke nur an das Problem, welche Tierarten eine Seele oder ein Bewußtsein haben, etwa Schimpansen, Delphine, Hunde, Katzen, Ratten, Papageien, Frösche, Maikäfer, Mücken, Zecken. Es ist vielleicht besser, Unterschiede wie den zwischen „beseelt“ und „unbeseelt“ nicht „ontologisch“, sondern „methodologisch“ zu fassen: Es gibt nicht zwei verschiedene Sorten von Dingen, sondern zwei verschiedene Betrachtungsweisen oder Erklärungsmethoden, und manche Phänomene, beziehungsweise die Bewegungen mancher Dinge, lassen sich eben besser in mentalen Termini beschreiben, vorhersagen, behandeln, andere besser in physikalischen Termini. Grundsätzlich können wir aber sehr wohl über dasselbe Ding einmal mentalistisch und ein anderes Mal physikalistisch argumentieren.

Ich glaube, daß wir es hier mit zwei grundverschiedenen Urerklärungsweisen zu tun haben, die schon kleine Kinder im Umgang mit belebten, d.h. sich „von selbst“ bewegenden oder aber unbelebten Dingen entwickeln. Wie „alt“ diese beiden grundverschiedenen Erklärungsweisen tatsächlich sind und wie sehr sie ursprünglich an eine ontologische Unterteilung der Dinge, etwa in „lebendige“ und „tote“, gebunden sind, kann man schon daran erkennen, daß unsere Sprache keinen einfachen gemeinsamen Oberbegriff für Lebewesen und (tote) Gegenstände kennt. Ich gebrauche hierfür das Wort „Ding“, das aber eigentlich in unserem Sprachgebrauch auch die Konnotation von „tot“ hat.

Diese Unterscheidung zwischen der mentalistischen und der physikalistischen Erklärungsweise hat sicher auch mit der Unterscheidung zwischen teleologischen und kausalen Erklärungen zu tun. In der Tat suchen wir bei einem Lebewesen gewöhnlich nach inneren Gründen für seine Bewegungen (Beweggründe); wir versuchen zum Beispiel, uns zu überlegen, was es wohl will, während wir bei einem toten Ding gewöhnlich nach äußeren Gründen für seine Bewegungen suchen, wir fragen uns zum Beispiel, wodurch oder durch wen das Ding in Bewegung gesetzt wurde.

Eine solche naive Unterscheidung zwischen lebendigen und toten Dingen führt natürlich schnell zu Schwierigkeiten. Man denke etwa an die Verwunderung, die kleine Kinder im Umgang mit mechanischem Spielzeug erleben, das sich durch Aufziehen – oder gar durch elektrischen Antrieb – von selbst bewegt. Solches Spielzeug hat einen inneren Antrieb, wäre also insofem naiv als belebt einzuordnen, aber wenn man das Ding einmal auf- (bzw. kaputt-) gemacht hat, wird einem die mechanisch-physikalische Art dieses inneren Antriebs deutlich.

Man kann diese kindliche Erfahrung auch so interpretieren, daß dieses Spielzeug eben nun dem Bereich der toten Gegenstände zugeordnet wird. Dann scheint allerdings die naturwissenschaftliche Forschung dazu zu führen, daß der Bereich des Toten immer weiter ausgedehnt wird. Dies kann geradezu zu Angst vor Erkenntnis führen und zu dem gelegentlich erhobenen Vorwurf der Nekrophilie gegenüber den Naturwissenschaften.

Die intelligenten Maschinen, die bisher bereits im Bereich der künstlichen Intelligenz entwickelt und tatsächlich gebaut worden sind, wie etwa die Schachcomputer, liefern durch ihre Ambivalenz zwischen mechanischem Gerät und intelligentem Gesprächspartner sozusagen „Propagandamaterial“ für meine These, daß es unfruchtbar ist, an einem grundsätzlichen Unterschied zwischen beseelten und unbeseelten oder lebendigen und toten Dingen festzuhalten. Man sollte eher zwischen einer mentalistischen und einer physikalistischen Betrachtungsweise (u.U. desselben Dinges) unterscheiden, wobei im Alltag für die meisten, aber eben nicht für alle Dinge jeweils eine der beiden Betrachtungsweisen die weitaus praktischere ist. Im Prinzip sollten also bei jedem Ding beide Betrachtungsweisen möglich sein (übrigens können auch beide zu Theorien führen und zur Verwendung von Mathematik), nur wird man sich bei manchen Dingen, nämlich den „toten“, normalerweise ganz auf die physikalistische Betrachtungsweise verlassen, während man sich bei „lebendigen“ Dingen oft eher der mentalistischen Betrachtungsweise bedient.

Bei den in der künstlichen Intelligenz entwickelten Maschinen sieht man, daß es oft nützlich ist, zwischen den beiden Betrachtungsweisen zu wechseln. Dies geschieht etwa dann, wenn man gegen einen Schachcomputer spielt und gerade über die möglichen Kombinationen nachdenkt, die er jetzt wahrscheinlich durchprobiert, und sich fragt, woran er wohl so lange überlegt, bis man plötzlich auf die Idee kommt, den Stecker in der Steckdose zu überprüfen, weil man die lange Bedenkzeit des Computers jetzt auf einen Stromausfall zurückführt. Man sieht also, daß sich die beiden Betrachtungsweisen nicht widersprechen, sondern oft eher ergänzen.

Mit dieser Überlegung ist nun allerdings noch nicht so viel gewonnen. Selbst wenn man einsieht, daß man insbesondere von Computern und von Gehirnen sowohl in physikalistischen als auch in mentalistischen Termini reden kann und daß beide Betrachtungsweisen sich gegenseitig sinnvoll ergänzen, so bleibt doch das Gefühl, daß es ganz verschiedene Zusammenhänge sind, in denen die eine oder die andere Betrachtungsweise adäquat ist. Man kann hier von verschiedenen Beschreibungs-, Betrachtungs- oder Organisationsebenen sprechen, wobei sich auf sehr „hohen“ Beschreibungsebenen die mentalistische, auf sehr „niedrigen“ die physikalistische Sprechweise anbietet. Nun kann man sicherlich denselben Vorgang (im Gehirn oder im Computer) sowohl auf einer sehr hohen Ebene in mentalistischen Termini als auch auf einer sehr niedrigen in physikalistischen Termini beschreiben, aber die Beschreibungsebenen sind gewöhnlich so weit voneinander entfernt, daß sich ein Bezug der beiden Beschreibungen zueinander nicht wirklich herstellen läßt.

Damit stellt sich jetzt also das Problem, sehr hohe und sehr niedrige Beschreibungsebenen zu verbinden. Die Schwierigkeit dieses Problems hängt mit der Komplexität des zu beschreibenden Dinges zusammen: Zum Beispiel wird man bei komplexeren Dingen wahrscheinlich mehr verschiedene Beschreibungsebenen brauchen. Die verschiedenen Beschreibungsebenen des menschlichen Gehirns zu verbinden, heißt für mich, das Gehirn zu verstehen.

2. Das Problem der verschiedenen Beschreibungsebenen

Die verschiedenen Beschreibungsebenen des Computers oder des Gehirns sind natürlich nicht vorgegeben, sondern ihre Einführung ist letzlich eine Frage der Praktikabilität. Gewöhnlich betrachtet man eine „untere“ physikalische Ebene, auf der z.B. die physikalischen Eigenschaften der Bauelemente beschrieben werden, und eine „obere“, „intentionale“ Ebene, auf der z.B. Ziele und Strategien beschrieben werden. Dazwischen kann man nun verschiedene Zwischenebenen einführen, wodurch man das Problem, die obere und die untere Ebene zu verbinden, in eine Reihe von Teilproblemen auflöst, nämlich die verschiedenen benachbarten Zwischenebenen zu verbinden.

Forschungsprogramme, die auf dieser Idee basieren, müssen also erst einmal versuchen, bestimmte Zwischenebenen zu definieren, und dann schrittweise die Beziehungen nach oben und unten herstellen. Allerdings besteht zwischen verschiedenen Forschungsprogrammen oft gerade Uneinigkeit darüber, welche Zwischenebenen für diesen Prozeß sinnvoll sind. In jedem Fall sprechen die Entwicklungen im Bereich der künstlichen Intelligenz für die grundlegende Idee solcher Forschungsprogramme, nämlich nach passenden Zwischenebenen zu suchen, durch die man die Komplexität des Problems, eine Beziehung zwischen der intentionalen und der physikalischen Betrachtungsebene herzustellen, reduzieren kann. Etwa beim Schachcomputer sind nämlich alle Zwischenebenen tatsächlich vorhanden. Sie ergeben sich – sozusagen von selbst – bei der Entwicklung von typischen KI-Programmen.

Die unterste Ebene ist die Hardwareebene der verfügbaren elektrischen bzw. elektronischen Bauteile. Als nächstes läßt sich eine Ebene der Schaltungslogik abtrennen. Hier spricht man von logischen Verknüpfungen elektrischer Impulse im Sinne der Booleschen Schalt-algebra, die von elektronischen Schaltungen, sogenannten „logischen Gattern“, durchgeführt werden. Auf dieser Ebene ist bereits das Maschinenprogramm als Inhalt des Programmspeichers beschreibbar, in dem einzelne Wahrheitswerte 0 oder 1 (entspricht „falsch“ oder „wahr“) als Zustände von Flip-Flops gespeichert sind.

Die nächste Ebene ist vielleicht schon die Auflistung des Maschinenprogramms in der sehr „niedrigen“ Maschinensprache oder im „Assembler“. Immerhin haben wir es hier bereits nicht mehr direkt mit einer physikalischen Struktur, sondern mit einer sprachlichen Formulierung des Programms zu tun, die aber noch im Detail den Ablauf der physikalischen Vorgänge im arbeitenden Computer vorschreibt.

Als nächstes folgt noch mindestens eine Beschreibungsebene des Programms in einer „höheren“ Programmiersprache, in der ganze Gruppen von Detailvorschriften der Assemblersprache in Einzelbefehlen zusammengefaßt werden, die dann schon eher den Charakter von Anweisungen in englischer Sprache haben. Es gibt hier auf verschiedene Anwendungsbereiche ausgerichtete höhere Sprachen. Wichtig ist, daß bei diesem Übergang die Beziehung zur Assemblerebene immer noch völlig klar ist, sie ist sogar durch automatische Übersetzungsprogramme von der höheren Sprache in die Assemblersprache gewährleistet.

Über die „fast englische“ Beschreibungsebene in einer hohen Programmiersprache ist allenfalls noch die umgangssprachliche Dokumentation des Programms zu stellen. Sie ist allerdings in vielen Fällen äußerst wichtig für das Verständnis eines Programms, besonders wenn man es nicht selbst geschrieben hat. Auf dieser Ebene können die Strategien und Bewertungskriterien zum Beispiel eines Schachcomputers praktisch genauso mitgeteilt werden wie unter Schachspielern.

Ich glaube, daß aus dieser kurzen Darstellung verschiedener Beschreibungsebenen der Abläufe in einem Computer schon deutlich wird, wie hier in kleinen Schritten von unten nach oben die mentalistische Betrachtungsweise adäquater und die physikalistische inadäquater wird.

Wenn man jetzt versucht, in einem analogen Forschungsprogramm menschliche oder tierische Gehirne zu verstehen, d.h. „hohe“, eher mentalistische, und „tiefe“, eher physikalistische Beschreibungsebenen in Einklang zu bringen, so stellt sich natürlich die Frage, inwieweit es sinnvoll ist, beim Gehirn Zwischenebenen zu konstruieren, die den eben beschriebenen analog sind, d.h., ob sich auch im Detail eine Art Analogie zwischen Computer und Gehirn herstellen läßt.

3. Vergleich von Computer und Gehirn auf verschiedenen Ebenen

Fangen wir mit der physikalischen Ebene an. Beim Computer sehen wir verschiedene „Zentren“, die durch Drähte miteinander verbunden sind. Die Drähte führen elektrische Spannungen. Durch die Art der Spannungen können wir den Stromversorgungsteil relativ leicht vom eigentlichen „Rechen“teil unterscheiden. In den einzelnen Verbindungsdrähten zwischen verschiedenen Zentren des Rechenteils laufen einigermaßen einheitliche kurze Spannungsimpulse. In den Zentren werden alle möglichen komplizierten Querverbindungen zwischen den Anschlußdrähten hergestellt. Der Aufbau dieser Schaltungen ist bis ins mikroskopische Detail kompliziert.

Gehen wir etwas über die rein physikalische Beschreibung hinaus und interpretieren die Spannungsimpulse auf den Verbindungsdrähten als „Signale“, so können wir zwischen Zentren der Signalverarbeitung und Verbindungskabeln zur Signalübertragung unterscheiden. Die Signale auf den einzelnen Drähten in den Kabeln sind normierte Spannungsimpulse, so daß man sich als Einheit der Informationsübertragung die Entscheidung zwischen Auftreten oder Nichtauftreten eines Impulses in einem Draht in einem zeitlichen Moment vorstellen kann. Dann erscheint es sinnvoll, die Informationsverarbeitung in den Zentren in Termini der Booleschen Schaltalgebra zu beschreiben. Und wir sind bereits auf der zweituntersten Ebene angelangt.

Sehen wir uns jetzt das Gehirn näher an, so können wir wieder eine Unterscheidung zwischen Informationsverarbeitungszentren und Verbindungskabeln machen (weiße und graue Substanz). Die Verbindungskabel bestehen aus vielen Nervenfasern oder „Axonen“. Wieder sind die Signale, die auf den Nervenfasern wandern, mehr oder weniger gut normierte Spannungsimpulse, genannt „Spikes“.

Man könnte also wieder geneigt sein, die Informationsverarbeitung in den Zentren in Termini von Boolescher Schaltalgebra zu beschreiben. Im Prinzip ist dies auch möglich (McCulloch & Pitts,1943), nur stößt man hier auf eine praktische Schwierigkeit und zugleich auf einen ersten deutlichen Unterschied zur Computeranalogie. Die Bausteine in der Booleschen Schaltalgebra sind sogenannte UND-, ODER- oder ähnliche „Gatter“. Sie haben gewöhnlich zwei Eingänge und einen Ausgang, der sich dann allerdings wieder in verschiedene Eingänge verzweigen kann. Sieht man sich die elektrischen Schaltzentren im Detail an, so kann man oft Bausteine isolieren, die dann auch mit nur wenigen Ein- und Ausgangsdrähten zu anderen Bausteinen verbunden sind.

Im Gehirn kann man auch solche Bausteine finden, die Neuronen (zig Milliarden im menschlichen Gehirn). Bei ihnen kann man sogar leicht ihre Ein- und Ausgangsdrähte unterscheiden (Dendriten und Axone, Abb. 1). Aber jedes einzelne Neuron macht Tausende von Verbindungen zu anderen Neuronen. Man kann nun in Analogie zu logischen Gattern einen vereinfachten neuronalen Grundbaustein konstruieren, das sogenannte Schwellen-Neuron, und es läßt sich nachweisen, daß man mit diesem Baustein alles das machen kann, was auch mit logischen Gattern geht. Trotzdem macht der Unterschied in der Zahl der Ein- und Ausgänge doch sehr viel aus. Man kann viele Schaltaufgaben bedeutend einfacher mit Schwellen-Neuronen realisieren als mit logischen Gattern, besonders auch in dem Sinne, daß der Weg von der Eingangskonfiguration bis zum Endresultat kürzer wird, d.h. über weniger Bauelemente führt (Abb. 2).

Dieser Gedanke ist eng verwandt mit der Idee, daß in unserem Gehirn viel parallele Informationsverarbeitung vor sich geht, während im Computer (bis heute) vorwiegend seriell verarbeitet wird. Es ist natürlich klar, daß nicht alle Aufgaben ihrer Natur nach parallelisierbar sind. Wenn eine parallele Verarbeitung aber möglich und sinnvoll ist, wird sie immer zu einer Beschleunigung des Verarbeitungsprozesses führen.

Ich möchte an dieser Stelle noch auf ein anderes Gegensatzpaar kurz eingehen, das oft beim Vergleich von Computer und Gehirn auftaucht: analog – digital.

Man könnte vielleicht meinen, daß die Verwendung von wenigen normierten Signalen zur Informationsübertragung (wie bei einem Alphabet) schon Digitalität bedeutet. Das ist aber nicht so. Für mich ist also durch die Tatsache der relativen Einheitlichkeit der Spikes noch lange nicht klar, daß es sich im Gehirn um digitale Verarbeitung wie beim Computer handelt. Meiner Ansicht nach bezieht sich der Unterscheid „analog – digital“ auf die Art der internen Codierung äußerer Signale. Man könnte diesen Unterschied allgemein formulieren; ich möchte ihn hier aber nur durch einige Beispiele verdeutlichen: Angenommen, die Position eines Punktes auf einem quadratischen Blatt Papier soll kodiert werden, so sind die Kodierungen in Abb. 3 b-e alle analog, aber die Kodierung in Abb. 3 f ist digital, was man an der zugrundeliegenden Kodierungstabelle (Abb. 4) sieht: Es gibt Fälle, in denen sich die Lage des Punktes kaum ändert, aber der Kode gewaltig (z.B. 111000 ä 011, aber 111100 ä100).

Angesichts der aufgezeigten Probleme, insbesondere der hohen Parallelität der Informationsverarbeitung im Gehirn, mit der man wohl rechnen muß, ist es nicht klar, wie man von hier zur nächsthöheren Beschreibungsebene in Analogie zum Computer aufsteigen soll.

Versuchen wir also einmal, von der obersten Betrachtungsebene herunterzusteigen, also von einer Beschreibung des Tuns von Personen oder auch Tieren in mentalen Termini zu einer Programmbeschreibung in einer „sehr hohen Programmiersprache“. Wir brauchen uns also zunächst nicht um die detaillierte Ausführung von Programmschritten zu kümmern, solange uns ihre Programmierbarkeit – etwa in Form von Unterprogrammen – einigermaßen plausibel erscheint.

Können wir uns vorstellen, daß wir nach einem generellen Programm funktionieren, und wie könnte dieses aussehen? Eine Idee hierzu, die zumindest Populationsgenetikern nicht völlig fremd sein dürfte, ist, daß unser Verhalten von der Geburt bis zum Tode von einem generellen Überlebens- und Fortpflanzungsprogramm gesteuert ist (vgl. Dawkins, 1976).

Diese Idee hat den Vorteil, sozusagen auf natürliche, biologische Weise die Herkunft von gewissen Grundbedürfnissen oder Trieben und von Lust- und Schmerzempfindungen als grundlegenden Bewertungskriterien für Situationen zu erklären, nach denen wir dann, z.B. durch Lernen im Laufe unseres Lebens, eine Art Verhaltensoptimierung durchführen können. Ich muß sagen, daß mir diese Betrachtungsweise (sicher im Gegensatz zu vielen) nicht unsympathisch ist. Zwar werden damit auch die Grundlagen unserer Moralvorstellungen auf die Biologie zurückgespielt, aber immerhin verschwinden sie nicht völlig. Die naturwissenschaftliche Betrachtungsweise des Menschen muß ihn also nicht zu einem ziel- und verantwortungslos umherirrenden Objekt machen.

Diese biologische Betrachtungsweise liefert nun in etwa eine zweitoberste, sehr generelle Programmebene. Eine weitere Detaillierung der Strategien, nach denen zum Beispiel Verhaltensoptimierung durchgeführt wird, könnte dann allmählich einen Abstieg zu tieferliegenden Betrachtungsebenen ermöglichen, aber es ist wohl auch deutlich, wie wenig wir über die Richtung sagen können, in der uns über fortschreitende Detaillierung der Abstieg bis etwa zu den beschriebenen unteren Ebenen gelingen könnte.

Trotz der großen Unterschiede, die sich beim detaillierten Vergleich von Computer und Gehirn auf verschiedenen Ebenen zeigen, gibt die Entwicklung der künstlichen Intelligenz und der Theorie neuronaler Netze mir doch die Hoffnung, daß sich das im zweiten Abschnitt dargestellte generelle Forschungsprogramm auch für das menschliche Gehirn durchführen läßt. Es sollte vielleicht doch möglich sein, eine „obere mentalistische“ und eine „untere physikalistische“ Beschreibungsebene über geeignete „Zwischenebenen“ zu verbinden. Nur werden beim Gehirn wahrscheinlich andere Zwischenebenen konstruiert werden müssen als beim Computer. In meinem eigenen Forschungsprogramm (vgl. Palm, 1982) versuche ich, sozusagen in einem Teilbereich, nämlich dem des Gedächtnisses, für das Gehirn eine ungefähr drittunterste Beschreibungs-ebene zu konstruieren, die ganz anders aussieht als die im zweiten Abschnitt für den Computer angegebene. Dabei ist die Beziehung zu den unteren Ebenen relativ klar (vgl. Palm, 1984, 1988, 1990), während der Abstand zu den höheren Ebenen noch so groß ist, daß man bestenfalls von einem „Blick nach oben“ sprechen kann, mit dem ich meine Theorie aufzubauen versuche. Ich versuche also, mich in Richtung auf solche psychologischen Theorien (etwa der Wissensdarstellung) zu orientieren, die ihrerseits mit „Blick nach unten“ aufgebaut werden oder wurden (z.B. Wilson,1980). Dabei habe ich die Hoffnung, daß es letztlich einmal gelingen wird, über viele kleine Schritte eine Verbindung zu diesen hohen Beschreibungsebenen herzustellen.

ANMERKUNGEN
LITERATUR:
R. Dawkins (1976): The Selfish Gene. Oxford University Press.
W.S. McCulloch, G.W. Pitts (1943): A Logical Calculus of the Ideas Immanent in Nervous Activity. Bull. Math. Biophys. 5, 115.
G. Palm (1982): Neural Assemblies. An Alternative Approach to Artificial Intelligence. Springer, Berlin, Heidelberg, New York.
G. Palm (1984): Local Synaptic Modification Can Lead to Organized Connectivity Patterns in Associative Memory. In: „Synergetics. From Microscopic to Macroscopic Order“, E. Frehland ed., Springer, Berlin, Heidelberg, New York.
G. Palm (1988): Assoziatives Gedächtnis und Gehirntheorie. Spektrum der Wissenschaft, 54-64.
G. Palm (1990): Cell Assemblies as a Guideline for Brain Research. Concepts in Neuroscience 1, 133-148.
K.V. Wilson (1980): From Associations to Structure. North-Holland Publ. Comp., Amsterdam, New York, Oxford.

Diskussion:

Christaller: Sie benutzen auch bei den neuronalen Netzen Simulationen, von denen Sie allerdings glauben, daß sie bessere Adaptionsleistungen als herkömmliche sequentielle Computerarchitekturen realisieren können. Dazu brauchen sie aber eigentlich keine neuen Computer, sondern lediglich neue Programme. Auf der Hardwareebene muß man eigentlich gar nichts tun.

Palm: Richtig. Das habe ich auch so gemeint. Aber wir müssen natürlich über Parallelrechnerarchitekturen nachdenken, die sich besonders gut für die Simulation von neuronalen Netzen eignen.

Christaller: Wenn man die Arbeitsweise neuronaler Netze auf einem Parallelrechner simuliert, dann geht es nicht darum, neuronale Netze zu realisieren oder zu simulieren, sondern darum, daß der Rechner die Simulation von diesen effizient parallel ausführt. Der Parallelrechner reflektiert nicht die Struktur von neuronalen Netzen.

Palm: Auf irgendeine Art und Weise schon. Aber es wäre natürlich naiv zu meinen, man müßte ein neuronales Netz so, wie es ist, in Silikon nachbauen. Es gibt Fälle, wo das Sinn macht, wie z.B. bei der Retina, aber generell wäre das unsinnig. Die dahinterstehende Idee des Lernens von Hebb besagt, daß bei zwei gleichzeitig aktiven Neuronen eine Verbindung verstärkt wird. Wir haben überlegt, daß das eine gute Möglichkeit ist, Information zu speichern. Wir haben das mathematisch untersucht, und dabei kam heraus, daß die zu speichernden Aktivitätsmuster viele inaktive und wenige aktive Neuronen haben müssen, damit sie unterscheidbar bleiben. Dann haben wir gefragt, wie wir das auf dem Rechner simulieren können. Bei den Aktivitätsmustern ist das einfach: 1 bedeutet aktiv, 0 inaktiv. Auch die Synapsen können entweder verbinden oder ausgeschaltet sein. Das kann man am besten mit einer normalen Random Access Memory realisieren. Wenn man das weiterdenkt, dann kommt man zu einer Architektur, bei der man einen ganz normalen Adreßbus hat, mit dem man RAMs adressiert, und Zähler, mit denen die Ausgänge aufaddiert werden. Das bildet das Aufsummieren des dendritischen Potentials nach. Das ist für die Neurologen natürlich grausig, weil es eine Karikatur der Wirklichkeit ist. Und dann werden mit einer Ansteuerlogik wieder Adressen generiert, die man auf demselben Bus wieder zurücktragen kann. Diese Architektur sieht total anders als ein richtiges neuronales Netz aus, leistet aber genau die Funktion, die ich haben will. Strukturell ist das etwas völlig anderes, aber funktionell kommt das auf dasselbe heraus. Das sieht überhaupt nicht mehr wie ein neuronales Netz aus, trotzdem gibt es Ideen aus der Hirnforschung, die man, allerdings nicht direkt, sondern als simplifiziertes Modell umsetzen kann.

Günther Palm, geb. 1949, ist Professor für Theoretische Hirnforschung und Leiter der Abteilung Neuroinformatik an der Universität Ulm. Buchveröffentlichungen: Theoretical Approaches to Complex Systems, Hrsg. mit R. Heim, Berlin – Heidelberg – New York 1978; Neural Assemblies. An Alternative Approach to Artificial Intelligence, Berlin – Heidelberg – New York 1982; Brain Theory, Hrsg. mit A. Aertens, Berlin – Heidelberg – New York – Tokio 1986; Brain Theory Reprint Volume, Hrsg. mit G. L. Shaw, Singapore – New Jersey – Hongkong 1988.