-
Warren McCulloch
publicaron el artículo "A logical calculus of Ideas Imminent in Nervous Activity". Este artículo
constituyó la base y el inicio del desarrollo en diferentes campos como son los
Ordenadores Digitales (John Von Neuman), la Inteligencia Artificial (Marvin Minsky
con los Sistemas Expertos) y el funcionamieto del ojo (Frank Rosenblatt con la famosa
red llamada Perceptron) -
Minsky, McCarthy, Rochester, Shanon
organizaron la primera conferencia de Inteligencia Artificial que fue
patrocinada por la Fundación Rochester. Esta conferencia se celebró en el verano de
1956 en la localidad inglesa de Darmouth y en muchos libros se hace referencia al
verano de este año como la primera toma de contacto seria con las redes neuronales
artificiales -
Frank Rosenblatt
publicó el mayor trabajo de investigación en computación
neuronal realizado hasta esas fechas. Su trabajo consistía en el desarrollo de un
elemento llamado "Perceptron".
El perceptron es un sistema clasificador de patrones que puede identificar patrones
geométricos y abstractos. El primer perceptron era capaz de aprender algo y era robusto,
de forma que su comportamiento variaba sólo si resultaban dañados los componentes -
Bernard Widrow
Desarrolló un elemento adaptativo lineal llamado
"Adaline" (Adaptive Linear Neuron). La Adaline y una versión de dos capas, llamada
"Madaline", fueron utilizadas en distintas aplicaciones como reconocimiento de voz y
caracteres, predicción del tiempo, control adaptativo y sobre todo en el desarrollo de
filtros adaptativos que eliminen los ecos de las líneas telefónicas. -
Minsky y Papert
Pertenecientes al Laboratorio de
Investigación de Electrónica del MIT (Massachussets Institute Technology) comenzaron
un trabajo profundo de crítica al perceptron. El resultado de este trabajo, el libro
Perceptrons, era un análisis matemático del concepto del perceptron. -
Teuvo Kohonen
Es uno de los mayores impulsores de la
computación neuronal de la década de los 70. De su trabajo de investigación destacan
dos aportaciones: la primera es la descripción y análisis de una clase grande de reglas
adaptativas, reglas en las que las conexiones ponderadas se modifican de una forma
dependiente de los valores anteriores y posteriores de las sinapsis. -
John Hopfield
Publicación del artículo Hopfield Model o Crossbar
Associative Network, junto con la invención del algoritmo Backpropagation se
consiguió devolver el interés y la confianza en el fascinante campo de la computación
neuronal tras dos décadas de casi absoluta inactividad y desinterés.
Hopfield presenta un sistema de computación neuronal consistente en elementos
procesadores interconectados que buscan y tienden a un mínimo de energía.