Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
En el momento de su muerte en 1957, John von Neumann (JVN) estaba en medio de un profundo cambio intelectual. Aunque es famoso por la "arquitectura von Neumann" que define las computadoras digitales modernas (separación de la computación de la memoria), sus últimos años se dedicaron a entender las diferencias fundamentales entre las computadoras artificiales y el cerebro biológico.
Murió antes de poder terminar esta síntesis, pero sus manuscritos y conferencias inacabadas (específicamente las Conferencias Silliman) sentaron las bases para los campos de la neurociencia computacional y la computación tolerante a fallos.
JVN estaba programado para ofrecer las prestigiosas Conferencias Silliman en Yale en 1956, pero estaba demasiado enfermo para presentarlas. El manuscrito inacabado se publicó póstumamente como La Computadora y el Cerebro (1958). Sigue siendo su trabajo más significativo sobre este tema.
En este texto, realizó un análisis comparativo riguroso del sistema nervioso humano y las computadoras digitales de su época (como el EDVAC y el ENIAC).
* La naturaleza "mixta" del cerebro: JVN argumentó que el cerebro no es puramente digital. Si bien el disparo de una neurona es un evento binario (todo o nada), el tiempo y la frecuencia de esos pulsos son analógicos. Concluyó que el cerebro utiliza un código híbrido—parte digital, parte analógico—donde la información se transmite no solo por estados de "encendido/apagado" sino por la tasa de pulsos (modulación de frecuencia).
* Precisión vs. Fiabilidad: Señaló que las computadoras digitales son frágiles; un solo error puede hacer que el sistema se bloquee. El cerebro, sin embargo, es robusto. Funciona con baja precisión (las neuronas son ruidosas e imprecisas en comparación con los tubos de vacío) pero logra una alta fiabilidad.
* Paralelismo: Identificó que, mientras las computadoras operan de manera serial (una instrucción a la vez) a velocidades muy altas, el cerebro opera en paralelo masivo a velocidades relativamente bajas. Este fue uno de los primeros reconocimientos formales de lo que ahora llamamos Procesamiento Paralelo Masivo.
Una de las contribuciones más críticas de JVN a la teoría de redes neuronales fue su artículo Lógicas Probabilísticas y la Síntesis de Organismos Fiables a partir de Componentes No Fiables (1956).
Estaba fascinado por una paradoja central de la biología: ¿Cómo realizan los organismos biológicos funciones complejas y fiables cuando sus componentes individuales (neuronas) son propensos a errores y muerte?
* El Problema: En una puerta lógica estándar (como AND/OR), si un componente falla, la salida es incorrecta. En un cerebro con miles de millones de neuronas, los componentes fallan constantemente, sin embargo, el "sistema" permanece sano y funcional.
* La Solución (Multiplexión): JVN propuso un modelo matemático donde los cables individuales son reemplazados por "paquetes" de cables, y las puertas lógicas individuales son reemplazadas por "órganos" que promedian las señales entrantes.
* Lógica de Mayoría: Introdujo el concepto de lógica de votación mayoritaria. Si tienes un paquete de 100 cables que transportan una señal, y 70 de ellos dicen "1" mientras que 30 dicen "0" (debido a ruido/error), el sistema interpreta la señal como "1". Esto demostró matemáticamente que se puede construir un sistema con un grado de fiabilidad arbitrariamente alto incluso si los componentes subyacentes son poco fiables.
JVN también es el padre de los Autómatas Celulares (CA), un modelo discreto de computación que se basa en una cuadrícula de celdas que cambian de estado según sus vecinos. Este fue su intento de abstraer matemáticamente la lógica de la vida y la reproducción.
* El Constructor Universal: Diseñó famosamente un patrón de autómatas celulares que podía copiarse a sí mismo—el Constructor Universal. Esta era una máquina teórica incrustada en una cuadrícula que podía leer una "cinta" de instrucciones y construir una copia de sí misma.
* Analogía Biológica: Notablemente, propuso esta arquitectura antes del descubrimiento de la estructura del ADN. Predijo que para que la autorreproducción funcionara, un organismo debía contener una "descripción" de sí mismo (software/ADN) y un "mecanismo" para copiar esa descripción (hardware/ARN y proteínas). Trató el problema de la autorreproducción como un problema lógico y computacional en lugar de uno puramente químico.
Parte superior
Clasificación
Favoritos
