HISTORIA DE LAS REDES NEURONALES

  • 1936 - Alan Turing.

    Fue el primero en estudiar el cerebro como una forma de ver el mundo de la computación
  • 1943-Warren McCulloch y Walter Pitt

    Lanzaron una teoría acerca de la forma de trabajar de las neuronas. Ellos modelaron una red neuronal simple mediante
    circuitos eléctricos.
  • 1949 - Donald Hebb

    Fue el primero en explicar los procesos del aprendizaje (que es el elemento básico de la inteligencia humana) desde un punto de vista psicológico, desarrollando una regla de como el aprendizaje ocurría. Los trabajos de Hebb formaron las bases de la Teoría de las Redes Neuronales.
  • 1950 - Karl Lashley

    En sus series de ensayos, encontró que la información no era almacenada en forma centralizada en el cerebro sino que era distribuida encima de él.
  • 1954 - Farley y Wesley A. Clark

    Al principio utilizaron máquinas computacionales, que entonces se llamaban "calculadoras", para simular una red de Hebb en el MIT.
  • 1956 - Congreso de Dartmouth.

    Este Congreso frecuentemente se menciona para indicar el nacimiento de la inteligencia artificial.
  • 1957 - Frank Rosenblatt

    Comenzó el desarrollo del Perceptrón. Esta es la red neuronal más antigua;utilizándose hoy en día para aplicación como reconocedor de patrones. Este modelo era capaz de generalizar, es decir, después de haber aprendido una serie de patrones podía reconocer otros similares, aunque no se le hubiesen presentado anteriormente.
  • 1959 - David H. Hubel y Torsten Wiesel

    Propusieron un modelo biológico que estaba basado en su descubrimiento de dos tipos de células en la corteza visual primaria: células simples y células complejas.
  • 1960 - Bernard Widrow/Marcial Hoff.

    Desarrollaron el modelo Adaline (ADAptative LINear Elements). Esta fue la primera red neuronal aplicada a un problema real (filtros adaptativos para eliminar ecos en las líneas telefónicas) que se ha utilizado comercialmente durante varias décadas.
  • 1961 - Karl Steinbeck: Die Lernmatrix

    Red neuronal para simples realizaciones técnicas (memoria
    asociativa).
  • 1965 - Ivakhnenko y Lapa

    El primer reporte sobre redes funcionales multicapas fue publicado en 1965 y se conoce como el método de agrupamiento para el manejo de datos.
  • 1967 - Stephen Grossberg.

    A partir de sus conocimientos fisiológicos, ha escrito numerosos libros y desarrollado modelo de redes neuronales. Realizó una red: Avalancha, que consistía en elementos discretos con actividad que varía en el tiempo que satisface ecuaciones diferenciales continuas, para resolver actividades como reconocimiento continuo de habla y aprendizaje de los brazos de un robot.
  • 1969 - Marvin Minsky/Seymour Papert

    Probaron (matemáticamente) que el Perceptrón no era capaz de resolver problemas relativamente fáciles, tales como el aprendizaje de una función no-lineal. Esto demostró que el Perceptrón era muy débil, dado que las funciones no-lineales son extensamente empleadas en computación y en los problemas del mundo real.
  • 1974 - Paul Werbos

    Desarrolló la idea básica del algoritmo de aprendizaje de propagación hacia atrás (backpropagation); cuyo significado quedó definitivamente aclarado en 1985.
  • 1977 - Stephen Grossberg.

    Teoría de Resonancia Adaptada (TRA). La Teoría de Resonancia Adaptada es una arquitectura de red que se diferencia de todas las demás previamente inventadas. La misma simula otras habilidades del cerebro: memoria a largo y corto plazo.
  • 1977 - Teuvo Kohonen

    Desarrolló un modelo similar al de Anderson, pero independientemente.
  • 1980 - Kunihiko Fukushima.

    Desarrolló un modelo neuronal para el reconocimiento de patrones
    visuales.
  • 1985 - John Hopfield.

    Provocó el renacimiento de las redes neuronales con su libro: "Computación neuronal de decisiones en problemas de optimización."
  • 1986 - David Rumelhart/G. Hinton

    Redescubrieron el algoritmo de aprendizaje de propagación hacia atrás (backpropagation). A partir de 1986, el panorama fue alentador con respecto a las investigaciones y el desarrollo de las redes neuronales. En la actualidad, son numerosos los trabajos que se realizan y publican cada año, las aplicaciones nuevas que surgen (sobretodo en el área de control) y las empresas que lanzan al mercado productos nuevos, tanto hardware como software (sobre todo para simulación).
  • 1992 - Max-pooling

    Una forma de submuestreo, en la que se divide los datos en grupos de tamaños iguales, que no tienen elementos en común, y se transmite solamente el valor máximo de cada grupo y sirve para ayudar con el reconocimiento de objetos tri-dimensionales.
  • 1992 - Schmidhuber

    Adoptaba una jerarquía multicapa de redes pre entrenados, una capa a la vez, por aprendizaje no supervisado, y refinado por propagación hacia atrás.
  • 2003 - Behnke

    Contaba solamente con el signo del gradiente (Rprop)​ tratándose de problemas tales como la reconstrucción de imágenes y la localización de caras.