Auf der Suche nach dem Bit im Gehirn
Geschichte und Zukunft des neuralen Codes
Die Neurowissenschaft versteht das Gehirn als informationsverarbeitendes System. Was aber „Information“ im Gehirn ist und wie sie „verarbeitet“ wird, ist eine der grossen offenen Fragen der Hirnforschung. Der nachfolgende Beitrag erläutert die Geschichte dieser Fragestellung und den heutigen Stand der Diskussion.
Zehn grundlegende Fragen harren in den Neurowissenschaften ihrer Antwort. An erster Stelle dieser Liste, welche die Neurophilosophin Patricia Churchland in Zusammenarbeit mit führenden Hirnforschern kürzlich erstellt hat, steht die Frage: Wie kodieren Nervenzellen Informationen? Diese Frage lässt sich wie folgt verstehen: Die Vielfalt der Erfahrungswelt wird durch die Sinnesorgane aufgenommen, in Nervenimpulse übersetzt und durch das Gehirn derart verarbeitet, dass Handlungen möglich werden oder Gedächtnisinhalte geschaffen werden. Dies lässt sich als Problem der Kodierung auffassen: Information wird erfasst und in eine Sprache übersetzt. Der neurale Code bildet das Regelwerk dieser Übersetzung. Es mag Laien erstaunen, dass diese Frage nicht gelöst ist, obgleich man gemeinhin das Hirn als informationsverarbeitendes System versteht. Tatsächlich existieren zwar verschiedene Ansätze zur Erklärung der Natur des neuralen Codes. Ein überzeugendes Konzept konnte bisher aber nicht gefunden werden. Wir versuchen nachfolgend, die Geschichte des neuralen Codes zu skizzieren und dabei insbesondere den Beitrag der Physik und verwandter Disziplinen zu diesern Fragestellung aufzuzeigen.
Von der „tierischen Elektrizität“ zum Spike
Unser heutigs Verständnis der Repräsentation von Information im Nervensystem fusst unter anderem auf der Entdeckung von Luigi Galvani um 1780, der die Muskeln eines Frosch-Präparates mittels elektrischer Reizung des Ischiasnerves zu Zuckungen veranlassen konnte. Der deutsche Physiologe Emil Du Bois-Reymond befasste sich später intensiv mit der Untersuchung elektrischer Vorgänge im Tierreich und wurde damit zum Begründer der Elektrophysiologie. Überhaupt erlebte die neuzeitliche Hirnforschung im 19. Jahrhundert einen wichtigen Höhepunkt, wobei vom Standpunkt der Physik insbesondere die Arbeiten von Hermann von Helmholtz hervorzuheben sind. Er formulierte unter anderem die Hypothese, dass das Ohr-Sinnesorgan (die Kochlea) einen Laut in verschiedene Frequenzen aufschlüsselt und die entsprechende Information in verschiedenen Nervenbahnen ins Gehirn gelangt. Ideen, dass es einen neuralen Code geben könnte, wurden bereits Ende des 19. Jahrhunderts vom amerikanischen Psychologen und Philosophen William James formuliert. Das begriffliche Umfeld für die genaue Analyse dieser Frage wurde aber erst in der Mitte des 20. Jahrhunderts geschaffen.
Zuvor lag der Schwerpunkt der Neurowissenschaft in der genaueren Abklärung der Natur der Informationsübertragung innerhalb einer Nervenzelle sowie zwischen den Nervenzellen. Der noch junge britische Forscher K. Lucas baute 1917 in Cambridge Instrumente zur Messung von Nervenimpulsen im Mikrovoltbereich. Er starb aber früh, so dass es seinem Kollege Edgar Douglas Adrian überlassen war, in den 1920er Jahren die klassischen Experimente zum neuralen Code durchzuführen. Adrian (einige seiner Ergebnisse wurden unabhängig von H.K. Hartline erarbeitet) stellte fest, dass Nervenzellen stereotype Impulse, sogenannte Aktionspotenziale oder Spikes, weiterleiten, sobald der Input in diese das Membranpotenzial der Zelle über einen gewissen Schwellenwert erhebt („alles-oder-nichts-Gesetz“). Dieses Phänomen zeigte sich bei den verschiedensten Tierarten und später auch bei Input von unterschiedlichen Sinnen wie Sehen, Hören, Riechen, Tasten, Schmecken sowie der Körperwahrnehmung. Man spricht von der Universalität der Spike-Kodierung. Die molekulare Grundlage der Entstehung der Aktionspotenziale wurde 1952 von den Biophysikern Alan Lloyd Hodgking und Thomas Henry Huxley entdeckten.
Im weiteren zeigte bereits Adrian, dass die Rate der Spike-Erzeugung (die Anzahl Spikes pro Zeiteinheit) sich meist erhöht, wenn die Reizung der Sinneszelle verstärkt wird. Man spricht heute von Kodierung durch die Feuerrate. Schliesslich entdeckte er das Phänomen der Adaption: die Antwort des Nervensystems auf einen Reiz ist abhängig von dessen Geschichte: Ein über einen längeren Zeitraum ausgeübter Reiz führt zu einer anderen Reaktion als derselbe Reiz ausgeübt über einen kürzeren Zeitraum. Mit den vier Prinzipien „alles oder nichts Gesetz“, Universalität des Codes, Kodierung mittels Feuerrate und Adaption hat Adrian das Fundament für die heutige Diskussion um den neuralen Code gelegt. Er erhielt für seine Arbeiten 1932 den Nobelpreis – zusammen mit Charles Scott Sherrington, welcher den Begriff der Synapse prägte. Die Synapse bildet die Verbindung zwischen Nervenzellen und ist damit ein wesentliches Element in der Kette der Weiterleitung von Information zwischen diesen.
Informationstheorie und Kybernetik
Es waren aber nicht die Kenntnisse auf der Ebene der Physiologie allein, welche zur Frage nach dem neuralen Code führte. Bahnbrechende Entwicklungen in der Mathematik und Physik, welche in der Mitte des 20. Jahrhunderts zu den neuen Gebieten Informationstheorie, Kybernetik und Theorie der Berechnung (Computation) führten, bildeten das begriffliche Instrumentarium zu einer schärferen Fassung des Problems: Der britische Mathematiker Alan Turing entwickelte in den dreissiger Jahren das Konzept der Turing-Maschine, welche erstmals begrifflich klar fasste, was eine Berechnung ist. Die Turing Maschine wurde zu einem Leitmodell des Gehirns, indem behauptet wurde, dass alles, was ein Gehirn berechnen kann im Prinzip auch von einer Turing Maschine berechnet werden könne. Daraus entwickelte sich ein neues Verständnis des Gehirns: die des Gehirns als eine allgemeine Form des Computers.
In den 40er Jahren entwickelte der Mathematiker und Ingenieur Claude Elwood Shannon die Informationstheorie und schuf damit ein präzises Verständnis der Begriffe „Information“ und „Kodierung“. Der Informationsbegriff von Shannon hat keinen semantischen Charakter (fragt also nicht nach der „Bedeutuung“ einer Information), sondern ist die quantitative Definition des Informationsgehaltes einer beliebigen „Nachricht“, gemessen in der Einheit „Bit“.
Ebenfalls in den 40er Jahren legten die Physiker Warren McCulloch und Walter Pitts das Konzept des neuronalen Netzwerkes vor. Die Modell-Neuronen solcher Netzwerke folgen dem „alles oder nichts“ Prinzip natürlicher Nervenzellen: sie nehmen Impulse anderer Neuronen auf und leiten sie weiter, sobald die Summe einen gewissen Schwellenwert überschreitet. Im gleichen Zeitraum entwickelte schliesslich der Mathematiker Norbert Wiener die Kybernetik, ein theoretisches Werkzeug zur Analyse von „Kontrolle und Kommunikation in Tieren und Maschinen“, wie es im Titel des damals erschienen Buchs von Wiener heisst.
Aus diesen Arbeiten entwickelte sich ein starker Motivationsschub für die Erklärung der Informationsverarbeitung im Gehirn. Als kennzeichnend dafür kann das Buch „The Computer and the Brain“ des Mathematikers und Physikers John von Neumann gelten, welches 1958 posthum erschien. Die frühe künstliche-Intelligenz-Forschung, welche ihre Wurzeln ebenfalls in den beschriebenen theoretischen Entwicklungen hat, brach zu jener Zeit auf, die Leistungen des (menschlichen) Gehirns künstlich zu reproduzieren. Das in den 1950er und 1960er Jahren erfolgreiche Entschlüsselung des genetischen Codes weckte damals die Hoffnungen, dasselbe könne auch bald mit dem neuralen Code geschehen. Der Forscher Bernhard Strehler schlug 1969 vor, analog zum genetischen Code nach „Codewörtern“ in der Abfolge von Aktionspotenzialen (spiketrains) zu suchen.
Scheitern und Neubeginn
Wenngleich die theoretischen Entwicklungen vor gut 50 Jahren Wesentliches für die begriffliche Fassung des Problems der neuronalen Kodierung beitrugen, so war doch bald einmal klar, dass die Sache weitaus komplizierter war, als ursprünglich angenommen. So begann man sich zu fragen, ob die Turing-Maschine tatsächlich das richtige Modell für die Rechenvorgänge im Gehirn sei. Manche benutzen dazu theoretische Argumente aus der Mathematik, so der englische Physiker Roger Penrose unter Bezugnahme auf Kurt Gödels Unvollständigkeitssätze. Ebenfalls bezweifelt wurde die Angemessenheit des Informationsbegriffs von Shannon, weil dieser nicht zwischen relevanten und nichtrelevanten Informationen unterscheiden vermöge. Auch die neuronalen Netze haben – nach einem Boom in den 80er Jahren – ihre Attraktivität als Modell für das Gehirn verloren. Überzeugende alternative Konzepte für „Information“ oder „Berechnung“ im Gehirn wurden aber bislang nicht vorgeschlagen.
Heute konkurrenzieren im Bereich des neuronalen Codes eine Reihe verschiedener Theorien, welche allesamt empirische Evidenz aufweisen können: Nebst der Idee der Kodierung durch die Feuerrate (rate coding) wird vorgeschlagen, dass der Code aus der präzisen Ankunft einzelner Spikes beim jeweiligen Neuron besteht. Die Anhänger jener Theorie suchen beispielsweise nach repetitiven Mustern in den Spiketrains. Wieder andere vertreten die Idee des „Populationscodes“, wonach Reize aus der Umwelt durch die Aktivität von Gruppen von Neuronen repräsentiert werden.
Erkenntnisse aus der experimentellen Forschung in den vergangenen 50 Jahren haben zudem weitere Bedingungen aufgezeigt, welchen Theorien des neuralen Codes genügen müssen. So zeigte sich, dass einzelne Aspekte äusserer Reize – bei Objekten beispielsweise deren Kanten, die Orientierung der Kanten im Raum oder deren Geschwindigkeit – an unterschiedlichen Orten im Gehirn verarbeitet werden. Doch wie gelangt das Gehirn damit zu einem Gesamteindruck? Diese Frage wird unter dem Begriff „Bindungsproblem“ diskutiert. Eine mögliche Antwort stammt vom deutschen Hirnforscher Wolf Singer, wonach die Aktivitäten der einzelnen Zentren zeitlich synchronisiert sind.
Die heute zur Debatte stehenden Vorschläge betreffend einem neuralen Code machen deutlich, dass dieser keineswegs mit dem genetischen Code verglichen werden kann. Letzterer ist ein statisches Schema, währenddem Neuronen offenbar unterschiedliche Strategien zur Repräsentation von Information verwenden. Derzeit ist nicht absehbar, ob sich diese in ein einheitliches Erklärungsschema pressen lassen.
Braucht es neue theoretische Grundlagen?
Die bisherige Entwicklung der Forschung hat Möglichkeiten und Grenzen von Konzepten aus Mathematik und Physik zur begrifflichen Schärfung und Lösung von grundlegenden Problemen der Hirnforschung aufgezeigt: Informationstheorie, Kybernetik und (klassische) Theorien der Berechnung haben auch heute noch ihren Platz im Methodenkatalog der Hirnforschung – wenngleich heute mit geringerem Anspruch, was ihre Erklärungskraft betrifft. Doch gibt es neue Inspiration für die Hirnforschung aus Mathematik und Physik? Tatsächlich haben sich in den vergangenen Jahren zwei Gebiete herauskristallisiert, welche neue theoretische Grundlagen liefern könnten: die Theorie komplexer Systeme und die Theorie nichtlinearer dynamischer Systeme.
Diese beiden Ansätze haben ihre erste Welle der Popularisierung („Chaos“ in den 1980ern und „Komplexität“ in den 1990ern) bereits hinter sich, sie haben jedoch eine unterschiedliche Tradition: Während die Theorie dynamischer Systeme bereits auf die Arbeiten des Mathematikers Henri Poincaré (kurz nach 1900) zurückblicken kann, ist die Komplexitätstheorie ein Kind der vergangenen 30 Jahre und ohne den Computer als Werkzeug kaum denkbar. Als bedeutend für die Komplexitätstheorie hat sich dabei der zunehmende Einbezug der Werkzeuge der statistischen Physik erwiesen.
Welchen Möglichkeiten und Einfluss dürften diese beiden Ansätze in den Neurowissenschaften haben? Klar ist zum einen, dass der Anteil der Physiker und Mathematiker in der Hirnforschung immer noch klein ist. Im wesentlichen finden sich solche Forscher im Bereich der Neuroinformatik (bzw. computational neurobiology, wie dieses Forschungsfeld in den USA heisst). Schwierig ist dabei, den Forschern das nötige Wissen in Biologie zu vermitteln, um aus der Fülle der experimentellen Forschung die richtigen Schlüsse ziehen zu können. So ist es zum anderen notwendig, das interdisziplinäre Umfeld zu schaffen, so dass Wissenschaftler aus Physik und Biologie erfolgreich zusammenarbeiten können.
Den Einfluss dieser neuen Zugänge auf die künftige Hirnforschung schätzen wir als sehr bedeutend ein. Die in den vergangenen Jahren ausgebaute Theorie der Dynamischen Systeme beispielsweise, hat neuartige Beschreibungen und Messgrössen erarbeitet, die auf die Prozesse, die im Cortex stattfinden, bereits heute vermehrte Anwendung finden. Aus dieser Perspektive wird das Gehirn nicht als repräsentationales, sondern als dynamisches System verstanden, das über (möglicherweise chaotische) Attraktoren verfügt und sich selbst zu organisieren versteht (Prinzip der Selbstorganisation). Damit eng verbunden stellt die Theorie komplexer Systeme wichtige Konzepte und Know-How zur Computer-Simulationen von räumlich ausgedehnten Systemen, wie sie der Cortex darstellt, bereit, und ist dafür verantwortlich, dass auch dieser Zugang an Wichtigkeit stark zugenommen hat.
Ein aktuelles, noch immer noch nicht vollständig verstandenes Phänomen stellt die Rolle des „Rauschens“ bei der biologischen Informationsverarbeitung dar. Hier hat in letzter Zeit der wohl stärkste Wandel stattgefunden, nachdem festgestellt wurde, das zum Beispiel Fische und Krebse in der Lage sind, aus scheinbarem Rauschen, welches an die tierische Sensorik gelangt, mittels stochastischer Resonanz die Information zu ziehen, die zum Fangen von Beute notwendig ist. Vergegenwärtigt man sich dazu parallel, dass ein einzelnes Neuron im menschlichen Kortex im Schnitt mit über 10000 anderen Neuronen in Kontakt steht, und von ihnen „Information“ erhält, die ein klassischer Ingenieur in den meisten Fällen als Rauschen abtun würde, muss man sich die Frage stellen, ob ein „minimaler Informationsbaustein“ - also quasi ein Bit im Gehirn – überhaupt ein sinnvolles Konzept sein kann. Die nähere Zukunft jedenfalls verspricht, spannend zu werden.
Wie sehen die Zukunftsaussichten der Schweiz in diesen Forschungsfeldern aus? Schwerpunkte bilden sich insbesondere im Umfeld der beiden eidgenössischen technischen Hochschulen der Schweiz. Währenddem das Zürcher Institut für Neuroinformatik, angesiedelt an der Universität und der ETH, bereits seit fast sieben Jahren existiert, wird derzeit in Lausanne ein grosses Hirnforschungs-Institut aufgebaut, einem Hirnforscher mit starkem Bezug zur Physik. Lausanne besitzt zudem mit dem Institut für Neuromimetik und dem Labor für nichtlineare Systeme Expertise in angrenzenden Gebieten. Zürich wiederum ist Standort des Nationalen Forschungsschwerpunktes für Hirnforschung, welcher sich aber auf die Erforschung von Krankheiten des Gehirns konzentriert. Insgesamt gesehen stehen die Chancen der Schweiz also gar nicht schlecht, einen Beitrag zur „Entschlüsselung“ des neuronalen Codes leisten zu können.