HISTORIA DE LA COMPUTACIÓN NEURONAL

  • Warren McCulloch

    Warren McCulloch
    publicaron el artículo "A logical calculus of Ideas Imminent in Nervous Activity". Este artículo
    constituyó la base y el inicio del desarrollo en diferentes campos como son los
    Ordenadores Digitales (John Von Neuman), la Inteligencia Artificial (Marvin Minsky
    con los Sistemas Expertos) y el funcionamieto del ojo (Frank Rosenblatt con la famosa
    red llamada Perceptron)
  • Minsky, McCarthy, Rochester, Shanon

    organizaron la primera conferencia de Inteligencia Artificial que fue
    patrocinada por la Fundación Rochester. Esta conferencia se celebró en el verano de
    1956 en la localidad inglesa de Darmouth y en muchos libros se hace referencia al
    verano de este año como la primera toma de contacto seria con las redes neuronales
    artificiales
  • Frank Rosenblatt

    publicó el mayor trabajo de investigación en computación
    neuronal realizado hasta esas fechas. Su trabajo consistía en el desarrollo de un
    elemento llamado "Perceptron".
    El perceptron es un sistema clasificador de patrones que puede identificar patrones
    geométricos y abstractos. El primer perceptron era capaz de aprender algo y era robusto,
    de forma que su comportamiento variaba sólo si resultaban dañados los componentes
  • Bernard Widrow

    Desarrolló un elemento adaptativo lineal llamado
    "Adaline" (Adaptive Linear Neuron). La Adaline y una versión de dos capas, llamada
    "Madaline", fueron utilizadas en distintas aplicaciones como reconocimiento de voz y
    caracteres, predicción del tiempo, control adaptativo y sobre todo en el desarrollo de
    filtros adaptativos que eliminen los ecos de las líneas telefónicas.
  • Minsky y Papert

    Pertenecientes al Laboratorio de
    Investigación de Electrónica del MIT (Massachussets Institute Technology) comenzaron
    un trabajo profundo de crítica al perceptron. El resultado de este trabajo, el libro
    Perceptrons, era un análisis matemático del concepto del perceptron.
  • Teuvo Kohonen

    Es uno de los mayores impulsores de la
    computación neuronal de la década de los 70. De su trabajo de investigación destacan
    dos aportaciones: la primera es la descripción y análisis de una clase grande de reglas
    adaptativas, reglas en las que las conexiones ponderadas se modifican de una forma
    dependiente de los valores anteriores y posteriores de las sinapsis.
  • John Hopfield

    Publicación del artículo Hopfield Model o Crossbar
    Associative Network, junto con la invención del algoritmo Backpropagation se
    consiguió devolver el interés y la confianza en el fascinante campo de la computación
    neuronal tras dos décadas de casi absoluta inactividad y desinterés.
    Hopfield presenta un sistema de computación neuronal consistente en elementos
    procesadores interconectados que buscan y tienden a un mínimo de energía.