-
Warren McCulloch y Walter Pitts desarrollaron el primer modelo matemático de una neurona artificial, conocido como la Neurona de McCulloch-Pitts, que estableció la base teórica para la simulación del comportamiento neuronal utilizando circuitos lógicos (McCulloch & Pitts, 1943). -
Frank Rosenblatt desarrolló el Perceptrón, una de las primeras redes neuronales capaces de aprendizaje supervisado. Este modelo demostró que las máquinas podían aprender y reconocer patrones, aunque con limitaciones en problemas no lineales (Rosenblatt, 1958). -
Marvin Minsky y Seymour Papert publicaron "Perceptrons", un libro que criticaba las limitaciones del Perceptrón, especialmente en la resolución de problemas no lineales. Esto condujo a un declive en la investigación sobre redes neuronales durante casi una década, conocido como el "Invierno de la IA" (Minsky & Papert, 1969). -
John Hopfield introdujo las redes de Hopfield, un tipo de red neuronal recurrente utilizada para resolver problemas de optimización y como modelos de memoria asociativa. Estas redes pueden converger hacia un estado estable, permitiendo el almacenamiento y recuperación de patrones (Hopfield, 1982). -
Teuvo Kohonen introdujo las "Self-Organizing Maps" (SOM), una técnica de aprendizaje no supervisado que permite la visualización de datos de alta dimensionalidad en espacios de menor dimensión. Las SOM son ampliamente utilizadas en la clasificación y reducción de dimensionalidad (Kohonen, 1982). -
Geoffrey Hinton y Terry Sejnowski desarrollaron las "Boltzmann Machines", un tipo de red neuronal estocástica utilizada para modelar distribuciones de probabilidad sobre conjuntos de datos. Este modelo ha sido precursor en el desarrollo de redes neuronales profundas (Hinton & Sejnowski, 1985). -
David Rumelhart, Geoffrey Hinton y Ronald Williams desarrollaron el algoritmo de retropropagación (backpropagation), que permitió el entrenamiento efectivo de redes neuronales profundas. Este avance revitalizó la investigación en redes neuronales, facilitando aplicaciones más complejas y efectivas (Rumelhart, Hinton, & Williams, 1986). -
Yann LeCun aplicó redes neuronales convolucionales (CNNs) para el reconocimiento de dígitos escritos a mano, lo que revolucionó el campo de la visión por computadora. Las CNNs utilizan capas convolucionales para extraer características importantes de los datos visuales, y este trabajo inicial fue clave para aplicaciones posteriores en reconocimiento de imágenes (LeCun et al., 1989). -
AÑO DE MAYOR RELEVANCIA
AlexNet, desarrollada por Alex Krizhevsky, Ilya Sutskever y Geoffrey Hinton, ganó la competencia ImageNet en 2012, demostrando el potencial de las redes neuronales profundas en el reconocimiento de imágenes. Este hito marcó un punto de inflexión en la inteligencia artificial moderna, popularizando el uso de redes profundas en diversas aplicaciones (Krizhevsky, Sutskever, & Hinton, 2012). -
En la actualidad, las redes neuronales se utilizan en una amplia gama de aplicaciones tecnológicas avanzadas, desde vehículos autónomos hasta asistentes virtuales. Con el avance continuo en hardware y algoritmos, se espera que las redes neuronales sigan siendo una fuerza impulsora en la inteligencia artificial y la automatización (Goodfellow, Bengio, & Courville, 2016).