Zum Zeitpunkt seines Todes im Jahr 1957 befand sich John von Neumann (JVN) inmitten eines tiefgreifenden intellektuellen Wandels. Während er berühmt ist für die "von Neumann-Architektur", die moderne digitale Computer definiert (Trennung von Berechnung und Speicher), widmete er seine letzten Jahre dem Verständnis der grundlegenden Unterschiede zwischen künstlichen Computern und dem biologischen Gehirn. Er starb, bevor er diese Synthese abschließen konnte, aber seine unvollendeten Manuskripte und Vorlesungen (insbesondere die Silliman-Vorlesungen) legten das Fundament für die Bereiche der rechnergestützten Neurowissenschaften und der fehlertoleranten Informatik. JVN sollte 1956 die prestigeträchtigen Silliman-Vorlesungen an der Yale-Universität halten, war jedoch zu krank, um sie zu präsentieren. Das unvollendete Manuskript wurde posthum als "Der Computer und das Gehirn" (1958) veröffentlicht. Es bleibt sein bedeutendstes Werk zu diesem Thema. In diesem Text führte er eine rigorose vergleichende Analyse des menschlichen Nervensystems und der digitalen Computer seiner Zeit (wie dem EDVAC und ENIAC) durch. * Die "Gemischte" Natur des Gehirns: JVN argumentierte, dass das Gehirn nicht rein digital ist. Während das Feuern eines Neurons ein binäres Ereignis ist (alles oder nichts), sind das Timing und die Frequenz dieser Impulse analog. Er schloss, dass das Gehirn einen hybriden Code verwendet – teilweise digital, teilweise analog – wobei Informationen nicht nur durch "ein/aus"-Zustände, sondern durch die Frequenz der Impulse (Frequenzmodulation) vermittelt werden. * Präzision vs. Zuverlässigkeit: Er stellte fest, dass digitale Computer zerbrechlich sind; ein einzelner Fehler kann das System zum Absturz bringen. Das Gehirn hingegen ist robust. Es arbeitet mit niedriger Präzision (Neuronen sind im Vergleich zu Vakuumröhren laut und ungenau), erreicht jedoch eine hohe Zuverlässigkeit. * Parallelität: Er stellte fest, dass Computer seriell (eine Anweisung nach der anderen) mit sehr hohen Geschwindigkeiten arbeiten, während das Gehirn massiv parallel bei relativ niedrigen Geschwindigkeiten arbeitet. Dies war eine der frühesten formalen Anerkennungen dessen, was wir heute als massiv parallele Verarbeitung bezeichnen. Einer von JVNs kritischsten Beiträgen zur Theorie der neuronalen Netze war sein Papier "Wahrscheinlichkeitslogiken und die Synthese zuverlässiger Organismen aus unzuverlässigen Komponenten" (1956). Er war fasziniert von einem zentralen Paradoxon der Biologie: Wie führen biologische Organismen komplexe, zuverlässige Funktionen aus, wenn ihre einzelnen Komponenten (Neuronen) anfällig für Fehler und Tod sind? * Das Problem: In einem Standardlogikgatter (wie AND/OR) ist die Ausgabe falsch, wenn eine Komponente ausfällt. In einem Gehirn mit Milliarden von Neuronen fallen Komponenten ständig aus, dennoch bleibt das "System" gesund und funktional. * Die Lösung (Multiplexing): JVN schlug ein mathematisches Modell vor, bei dem einzelne Drähte durch "Bündel" von Drähten ersetzt werden und einzelne Logikgatter durch "Organe", die die eingehenden Signale mitteln, ersetzt werden. * Mehrheitslogik: Er führte das Konzept der Mehrheitsabstimmungslogik ein. Wenn Sie ein Bündel von 100 Drähten haben, die ein Signal tragen, und 70 davon "1" sagen, während 30 "0" sagen (aufgrund von Rauschen/Fehlern), interpretiert das System das Signal als "1". Dies bewies mathematisch, dass Sie ein System mit einem beliebig hohen Grad an Zuverlässigkeit aufbauen können, selbst wenn die zugrunde liegenden Komponenten unzuverlässig sind. JVN ist auch der Vater der zellulären Automaten (CA), einem diskreten Modell der Berechnung, das auf einem Gitter von Zellen basiert, die ihre Zustände basierend auf ihren Nachbarn ändern. Dies war sein Versuch, die Logik des Lebens und der Fortpflanzung mathematisch zu abstrahieren. * Der universelle Konstruktor: Er entwarf berühmt ein Muster von zellulären Automaten, das sich selbst kopieren konnte – den universellen Konstruktor. Dies war eine theoretische Maschine, die in einem Gitter eingebettet war und ein "Band" von Anweisungen lesen und eine Kopie von sich selbst bauen konnte. * Biologische Analogie: Bemerkenswerterweise schlug er diese Architektur vor, bevor die Struktur der DNA entdeckt wurde. Er sagte voraus, dass für die Selbstreproduktion ein Organismus eine "Beschreibung" von sich selbst (Software/DNA) und einen "Mechanismus" zur Kopie dieser Beschreibung (Hardware/RNA & Proteine) enthalten muss. Er betrachtete das Problem der Selbstreproduktion als ein logisches, rechnerisches Problem und nicht als ein rein chemisches.