-
Alan Mathison Turing
Formalizó los conceptos de algoritmo y computación. Estudió el cerebro humano como una forma de ver el mundo de la computación. -
Warren Sturgis McCulloch y Walter Harry Pitts
Estos autores propusieron la definición de neurona desde el punto de vista cibernético, afirmando que cada neurona posee un conjunto de entradas y una sola salida, y que cada input está afectado por un coeficiente, denominado peso. -
Donald Olding Hebb
Se produce un viraje en la concepción del proceso de aprendizaje del ser humano, desde el punto de vista psicológico, aprovechando la capacidad del sistema nervioso y su comportamiento.
Su idea fue que el aprendizaje ocurría cuando ciertos cambios en una neurona eran activados. Intentó encontrar semejanzas entre el aprendizaje y la actividad nerviosa. -
Karl Lashley
Encontró que la información no era almacenada en forma centralizada en el cerebro sino que era distribuida uniformemente por todo el cortex cerebral y no en un lugar específico. -
John von Newmann
Concibió un robot teórico capaz de replicarse a sí mismo. Además diseñó una computadora que trabajara con aritmética binaria, compuesta de una memoria, una unidad aritmética lógica, una unidad de control del programa y elementos de entrada y salida. Hoy día todas las computadoras tienen este esquema de construcción. -
Marvin Minsky y Dean Edmond
Construyeron el primer neurocomputador SNARC (Stochastic Neural Analog Reinforcement Computer), que funcionó bien desde el punto de vista técnico, también incluyó numerosas conexiones ocasionales entre sus diversas "neuronas", actuando como una especie de sistema nervioso capaz de superar cualquier interrupción eventual de información debido a una de las neuronas fallando. -
Frank Rosenblatt
Desarrolló el Perceptrón (Mark 1), una máquina capaz de aprender mediante un sistema de red neuronal que simula los procesos que se llevan a cabo en el cerebro humano. Es la red neuronal más antigua y que se utiliza hasta hoy para identificar patrones de comportamiento. Su utilidad es que permite además de la identificación de patrones la de generalizar, o sea, que podía reconocer otros patrones similares aunque no lo hubiese utilizado en la faz de entrenamiento. -
Bernard Widrow y Marcian Hoff
Se crearon la red ADALINE (ADAptative LInear NEuron) y la introducción de una nueva y poderosa regla de aprendizaje llamada de Widrow-Hoff, conocida como algoritmo LMS permite minimizar el error medio cuadrático, definida como la diferencia entre la señal esperada y la producida a la salida del filtro adaptativo. También desarrollaron estos autores el MADALINE (Multiple ADALINE) que se aplicaron a la predicción meteorológica, controles adaptativos y reconocimiento de patrones de comportamiento. -
Frank Rosenblatt
Modificó la idea del perceptrón que había trabajado en 1957 que tenía dos capas únicamente (entrada y salida) para trabajar con un modelo multicapa (Multilayer Perceptron), aunque fue difícil implementarlo en la práctica debido a que no tenía un algoritmo de aprendizaje adecuado. -
Stephen Grossberg
Propuso una red que denominó Avalancha, que tomaba elementos discretos con otros que variaban en el tiempo para satisfacer ecuaciones diferenciales continuas y que el nodo de salida de la red sea activado por un conjunto prescrito de patrones de entrada. Los parámetros explícitos en la red determinan qué conjunto de entradas es más efectivo. Se empleó para el reconocimiento del habla y el aprendizaje del movimiento de los brazos de un robot. -
Marvin Minsky y Seymour Papert
Criticaron al perceptrón, afirmando matemáticamente que no podía resolver muchos problemas simples, como por ejemplo el aprendizaje de una función no lineal. Esto hizo durante un tiempo se perdiera interés en las redes neuronales. Opinaban que una combinación de varios perceptrones podría resolver algunos problemas reales pero que no existía un algoritmo capaz de resolverlo. Estos autores hicieron una defensa de la inteligencia artificial y al rechazo de las redes neuronales. -
Christoph von der Maslburg
Introduce un nuevo tipo de control dinámico, modulación sináptica, según el cual las sinapsis alternan entre un estado conductor y otro no conductor. La dinámica de esta variable se controla en una escala de tiempo rápido por correlaciones en la estructura fina temporal de las señales celulares. Su principal foco de atención estaba en la función del sistema visual para el reconocimiento facial. -
Paul Werbos
Desarrolló la idea básica del algoritmo de aprendizaje de propagación hacia atrás (backpropagation), que en 1986 fue perfeccionado. El algoritmo emplea un ciclo de propagación, adaptado en 2 fases, proceso de entrada a salida, retornando errores de salida a la capa oculta, llegando a todas las neuronas describiendo el error total -
Kunihiko Fukushima
Desarrolló el cognitrón, que es una red neuronal artificial multicapa auto-organizadas que poseía como novedad el uso de neuronas excitadoras e inhibidoras en cada una de las capas. Cada célula de la capa final integra la información de partes enteras de la primera capa y responde selectivamente a un patrón de estímulo específico o a alguna característica. -
Stephen Grossberg
Presentó la Teoría de Resonancia Adaptada (Adaptive Resonance Theory – ART), que es una arquitectura de red que se diferencia de todas las demás previamente inventadas. La misma simula otras habilidades del cerebro: memoria a largo y corto plazo, recodificación o transformación a partir de un conjunto de patrones espaciales arbitrarios en otro si hay suficientes células en la corteza de la red. -
Stephen Grossberg
Presentó un trabajo sobre la auto-organización de las redes, que sugiere un fundamento psico-fisiológico para la teoría cognitiva. Esta teoría sugiere una forma de pensar no menos que una serie de mecanismos. Los modelos probabilísticos y computadoras se han utilizado de forma complementaria para analizar datos de memoria que pueden ser modificados, unificados y fortalecidos. -
Teuvo Kohonen
Trabaja sobre los mapas auto-organizativos, en un estudio teórico y simulaciones sobre una red simple de elementos físicos adaptativos que recibe señales de eventos primarios y que se asignan automáticamente a un conjunto de respuestas de salida, así las respuestas tienen el mismo orden que los eventos primarios. Descubre un principio que facilita la formación automática de mapas topológicamente correctos, con retroalimentación lateral. -
Kunihiko Fukushima
Crea el neocognitrón, que es un modelo para el reconocimiento de patrones visuales y reconocimiento de caracteres escritos a mano y está basado en la estructura del nervio óptico humano, es mucho más compleja que la anterior y también posee retroalimentación. -
Teuvo Kohonen
Presentó la red denominada mapas auto-organizados o (Self Organizing Map –SOM), que es una red sencilla, tiene sólo una capa de neuronas de entrada y otra de salida, es no supervisada y con entrenamiento competitivo. Las neuronas se organizan en muchas zonas, trabaja con conexiones hacia adelante o feedforward. Permite detectar características, regularidades, patrones y categorías. -
John Hopfield
Estudió un modelo para una gran red de neuronas que lo llamó de respuesta graduada, o de relación sigmoide en la entrada y en la salida. Trabajó en una red que lleva su nombre y que es una variante del Asociador Lineal de Anderson, demostró que se emplea como sistema de memoria asociativa con unidades binarias, o sea que sólo tienen dos valores posibles y el valor se determina si superan o no a un cierto umbral. Posee capacidad de generalización y corrección de errores. -
David H. Ackley, Geoffrey E. Hinton y Terrance J. Sejnowski
Crearon la máquina de Boltzmann, que son redes recurrentes simétricas pero con neuronas ocultas, que permiten obtener eficiencia en redes paralelas. También se dispone de unidades binarias como con Hopfield, pero aquí estas unidades son estocásticas en la función de salida.
Luego aparecen las Máquinas de Boltzmann restringidas, en donde se tiene una estructura fija en donde aparecen una capa de neuronas ocultas y otras visibles, pero sin conexiones entre las que se encuentran en la misma capa. -
Robert Hecht-Nielsen
La red Counterpropagation es una red competitiva, diseñada para funcionar como una tabla de búsqueda auto-programada con la habilidad adicional para interpolar entre entradas. Utiliza el modelo de Kohonen para acelerar el proceso de aprendizaje. A esta red se le puede imaginar como una Tabla de Búsqueda, que combina aprendizaje no supervisado (Competitivo) y supervisado (Regla delta). Tiene un aprendizaje off line. Su entrenamiento ocurre mas rápido que la Backpropagation. -
David E. Rumelhart, Geoffrey E. Hinton y Ronald J. Williams
Desarrollaron nuevos algoritmos de entrenamiento para perceptrones multicapa. Para ello usaron el método conocido como regla delta generalizada para el aprendizaje por retropropagación. Dicha regla se ha podía aplicar en algunos problemas de interés práctico. Por este motivo, las máquinas de tipo perceptrón multicapa constituyen uno de los principales modelos de redes neuronales en uso. -
Rummelhart, D. E., J. L. McClelland y el grupo PDP
El procesamiento distribuido en paralelo (o PDP) es una nueva teoría sobre el aprendizaje que propone una explicación al fenómeno de la adquisición de conocimiento basada en los procesos neuronales que tienen lugar en el cerebro. Se trata de una teoría de la ciencia cognitiva, que en su concepción del aprendizaje se diferencia tanto del conductismo como del mentalismo.
El PDP es una de las variantes del conexionismo, que describe los procesos cognitivos en términos de conexiones entre neuronas. -
Terrence Sejnowski y Charles Rosenberg
El sistema llamado NetTalk convierte texto en fonemas y con la ayuda de un sintetizador de voz (Dectalk) genera voz a partir de un texto escrito.
La ventaja que ofrece la computación neuronal frente a las tecnologías tradicionales en la conversión texto-voz es la propiedad de eliminar la necesidad de programar un complejo conjunto de reglas de pronunciación en el ordenador.