Antecedentes de las redes nueronales artificiales

  • Alan Turing

    Alan Turing
    Fue el primero en estudiar el cerebro como una forma de ver el mundo de la
    computación. Sin embargo, los primeros teóricos que concibieron los fundamentos de la computación neuronal
  • Donald Hebb

    Donald Hebb
    Fue el primero en explicar los procesos del aprendizaje (que
    es el elemento básico de la inteligencia humana) desde un punto de vista psicológico, desarrollando una regla de
    como el aprendizaje ocurría.
    Su idea fue que el aprendizaje ocurría cuando ciertos cambios en una
    neurona eran activados
  • Karl Lashley

    Karl Lashley
    Encontró que la información no era almacenada en forma
    centralizada en el cerebro sino que era distribuida encima de él.
  • Congreso de Dartmouth

    Congreso de Dartmouth
    Este Congreso frecuentemente se menciona para indicar el nacimiento
    de la inteligencia artificial.
  • Frank Rosenblatt

    Frank Rosenblatt
    Comenzó el desarrollo del Perceptrón. Esta es la red neuronal más antigua; utilizándose hoy en día para aplicación como reconocedor de patrones. Este modelo era capaz de generalizar, es decir, después de haber aprendido una serie de patrones podía reconocer otros similares, aunque no se le hubiesen presentado anteriormente.
  • Bernard Widrow/Marcial Hoff

    Bernard Widrow/Marcial Hoff
    Esta fue la primera red neuronal aplicada a un problema real (filtros adaptativos para eliminar ecos
    en las líneas telefónicas) que se ha utilizado comercialmente durante varias décadas
  • Karl Steinbeck

    Karl Steinbeck
    Red neuronal para simples realizaciones técnicas (memoria
    asociativa).
  • Stephen Grossberg

    Stephen Grossberg
    Realizó una red: Avalancha, que consistía en elementos discretos con actividad que varía en el tiempo que satisface ecuaciones diferenciales continuas, para resolver actividades como reconocimiento continuo de habla y aprendizaje de los brazos de un robot.
  • Marvin Minsky/Seymour Papert

     Marvin Minsky/Seymour Papert
    Probaron (matemáticamente) que el Perceptrón no era capaz de resolver problemas relativamente fáciles, tales como el aprendizaje de una función no-lineal. Esto demostró que el Perceptrón era muy débil, dado que las funciones no-lineales son extensamente empleadas en computación y en los problemas del mundo real.
  • Paul Werbos

    Paul Werbos
    Desarrolló la idea básica del algoritmo de aprendizaje de propagación hacia atrás (backpropagation); cuyo significado quedó definitivamente aclarado en 1985.
  • Stephen Grossberg

    Stephen Grossberg
    Teoría de Resonancia Adaptada (TRA). La Teoría de Resonancia Adaptada es una arquitectura de red que se diferencia de todas las demás previamente inventadas. La misma simula otras habilidades del cerebro: memoria a largo y corto plazo.
  • Kunihiko Fukushima

    Kunihiko Fukushima
    Desarrolló un modelo neuronal para el reconocimiento de patrones visuales.
  • John Hopfield

    John Hopfield
    Provocó el renacimiento de las redes neuronales con su libro: "Computación neuronales de desiciones en problemas de optimización."
  • David Rumelhart/G. Hinton

    David Rumelhart/G. Hinton
    Redescubrieron el algoritmo de aprendizaje de propagación hacia atras (backpropagation). A partir de 1986, el panorama fue alentador con respecto a las investigaciones y el desarrollo de las redes neuronales.