-
Publicación del articulo "A logical calculus of Ideas Imminent in Nervous Activity".
Este artículo constituyó la base y el inicio del desarrollo en diferentes campos como son los Ordenadores Digitales (John Von Neuman), la Inteligencia Artificial (Marvin Minskycon los Sistemas Expertos) y el funcionamiento del ojo (Frank Rosenblatt con la famosared llamada Perceptron). -
primera conferencia de Inteligencia Artificial
En 1956, los pioneros de la Inteligencia Artificial, Minsky, McCarthy, Rochester,Shanon, organizaron fue patrocinada por la Fundación Rochester. Esta conferencia se celebró en el verano de en la localidad inglesa de Darmouth en este año se tomo como la primera toma de contacto seria con las redes neuronales
artificiales. -
Frank Rosenblatt publicó "Perceptron".
Es un sistema clasificador de patrones que puede identificar patrones geométricos y abstractos. El primer perceptron era capaz de aprender algo y era robusto, -
Se desarrolló un elemento adaptativo lineal llamado "Adaline" (Adaptive Linear Neuron). La Adaline y una versión de dos capas, llamada "Madaline",
Fueron utilizadas en distintas aplicaciones como reconocimiento de voz y caracteres, predicción del tiempo, control adaptativo y sobre todo en el desarrollo de filtros adaptativos que eliminen los ecos de las líneas telefónicas. -
publicación del el libro Perceptrons,
era un análisis matemático del concepto del perceptron. La conclusión de este trabajo, que se transmitió a la comunidad científica del mundo entero, es que el Perceptron y la Computación Neuronal no eran temas interesantes que estudiar y desarrollar. A partir de este momento descendieron drástica mente las inversiones en la investigación de la computación neuronal. -
Teuvo Kohonen, de la Universidad de Helsinki,
Es uno de los mayores impulsores de la computación neuronal.
De su trabajo de investigación destacan
dos aportaciones: la primera es la descripción y análisis de una clase grande de reglas
adaptativas, la segunda
aportación es el principio de aprendizaje competitivo . -
Stephen Grossberg. Grossberg
estaba especialmente interesado en la utilización de datos
de la neurología para construir modelos de computación neuronal. La mayoría de sus reglas y postulados derivaron de estudios fisiológicos. Su trabajo ha constituido la investigación del diseño y construcción de modelos neuronales.
Una de estas clases de redes es la Adaptive Resonance Theory (ART). -
John Hopfield y la publicación del artículo Hopfield Model o Crossbar Associative Network, junto con la invención del algoritmo Backpropagation
John Hopfield, consiguió devolver el interés y la confianza en el fascinante campo de la computación neuronal tras dos décadas de casi absoluta inactividad y desinterés. Hopfield presenta un sistema de computación neuronal consistente en elementos procesadores interconectados que buscan y tienden a un mínimo de energía. Esta red con este tipo de función de energía y mecanismo de respuesta no es mas que un caso de la clase genérica de redes que consideró Grossberg. -
Investigación hoy en dia
Existen muchos grupos con sede en diferentes universidades de todo el mundo que están realizando trabajos de investigación en el área de las redes neuronales artificiales. Cada grupo tiene diferente énfasis y motivación con los neurólogos, psicólogos del
conocimiento, físicos, programadores y matemáticos. Todos ellos ofrecen nuevos puntos de vista e intuiciones en esta área de la técnica.