-
1982 BCE
Marvin Minsky y Seymour Papert
El crecimiento que estaban experimentando las investigaciones sobre redes neuronales. Marvin Minsky y Seymour Papert, del
MIT, publicaron un libro, Perceptrons, que además de contener un análisis matemático detallado del Perceptrón, consideraba que la extensión a Perceptrones multinivel (el Perceptrón original solo poseía una capa) era completamente estéril. -
1982 BCE
Rumelhart, Hinton y Williams
el desarrollo del algoritmo back-propagation fue dado a conocer por Rumelhart, Hinton y Williams. Ese mismo año, el libro Parallel Distributed Processing, fue publicado por Rumelhart y McClelland, siendo este libro la mayor influencia para la aplicación generalizada del algoritmo back-propagation. -
1980 BCE
Kunihiko Fukushima
desarrolló en 1980 el Neocognitrón, un modelo de red neuronal para el reconocimiento de patrones visuales. -
1977 BCE
James Anderson
desarrolló un modelo lineal llamado Asociador Lineal, que consistía en elementos integradores lineales (neuronas) que sumaban sus entradas. También desarrolló una potente extensión del Asociador Lineal llamada Brain-State-in-a-Box (BSB) -
1967 BCE
Stephen Grossberg
Estudió los mecanismos de la percepción y la memoria. Grossberg realizó en 1967 una red, Avalancha, que consistía en elementos discretos con actividad que varía con el tiempo que satisface ecuaciones diferenciales continuas, para resolver actividades tales como reconocimiento continuo del habla y aprendizaje del movimiento delos brazos de un robot. -
1958 BCE
Bernard Widrow y Marcial Hoff
desarrollaron el modelo ADALINE (ADAptive LINear Elements). Esta fue la primera red neuronal aplicada a un problema real (filtros adaptativos para eliminar ecos en las líneas telefónicas) y se ha usado comercialmente durante varias décadas. -
1957 BCE
Frank Rosenblatt
Perceptrón, es el modelo más antiguo de red neuronal, y se usa hoy en día de varias formas para la aplicación de reconocedor de patrones. Este modelo era capaz de generalizar; es decir, después de haber aprendido una serie de patrones era capaz de reconocer otros similares. Sin embargo, tenía una serie de limitaciones, quizás la más conocida era la de resolver el problema de la función OR y, en general, no era capaz de clasificar clases no separables linealmente. -
1949 BCE
Donald Hebb
Tal tesis quedó avalada por el descubrimiento fundacional de las neurociencias: la neurona, una célula cuya primordial misión parece ser la de transmitir información. Además, parece hacerlo de modo relativamente simple, mediante un sistema sumatorio de pesos que hace que una neurona se dispare o no en función de los estímulos recibidos por otras neuronas (la grandísima aportación de Hebb). -
1943 BCE
Warren McCulloch y Walter Pitts
Concibieron los fundamentos de la computación neuronal fueron Warren McCulloch, un neurofisiólogo,y Walter Pitts, un matemático, quienes, en 1943, lanzaron una teoría acerca de la forma de trabajar de las neuronas. Ellos modelaron una red neuronal simple mediante circuitos eléctricos. -
1936 BCE
Alan Turing
fue el primero en estudiar el cerebro como una forma de ver el mundo de la computación