-
Alan Turing
Fue el primero en estudiar el cerebro como una forma de
ver el mundo de la computación. -
Warren McCulloch y Walter Pitts
Los primeros teóricos que concibieron los fundamentos de la computación neuronal, lanzaron una teoría acerca de la forma de trabajar de las neuronas -
Donald Hebb
Fue el primero en explicar los procesos del aprendizaje (que es el elemento básico de la inteligencia humana) desde un punto de vista psicológico -
Karl Lashley
En sus series de ensayos, encontró que la información no
era almacenada en forma centralizada en el cerebro sino que era distribuida encima de
él. -
Congreso de Dartmouth
Este Congreso se menciona para
indicar el nacimiento de la inteligencia artificial -
Frank Rosenblatt
Comenzó el desarrollo del Perceptron. Esta es la red
neuronal más antigua; utilizándose hoy en día para aplicación como identificador de
patrones. -
Frank Rosenblatt: Principios de Neurodinámica.
En este libro confirmó que, bajo ciertas condiciones, el aprendizaje del Perceptron convergía hacia un estado finito -
Bernard Widroff y Marcian Hoff
Desarrollaron el modelo Adaline (ADAptative LINear Elements). Esta fue la primera red neuronal aplicada a un problema real -
Karl Steinbeck: Die Lernmatrix
Red neuronal para simples realizaciones
técnicas (memoria asociativa). -
Paul Werbos
Desarrolló la idea básica del algoritmo de aprendizaje de
propagación hacia atrás -
Stephen Grossberg: Teoría de Resonancia Adaptada
La Teoría de Resonancia Adaptada es una arquitectura de red que se diferencia de todas las demás previamente inventadas. La misma simula otras habilidades del cerebro: memoria a largo y corto plazo. -
Hopfield
Elabora un modelo de red consistente en unidades de proceso interconectadas que alcanzan mínimos energéticos, aplicando los principios de estabilidad desarrollados por Grossberg. -
John Hopfield
Provocó el renacimiento de las redes neuronales con su libro: “Computación neuronal de decisiones en problemas de optimización.” -
Creación del algoritmo de aprendizaje para maquinas de Bollzmann
Distribución de los pesos de las entradas es calculada a partir de la probabilidad de que la salida de la neurona ses 1 o 0, lo que convierte al sistema en un sistema estocástico. -
David Rumelhart y G. Hinton
Redescubrieron el algoritmo de aprendizaje
de propagación hacia atrás -
Alexander Weibel y Hinton
resuelven la falta de memoria en las redes neuronales, con el algoritmo de retardo de tiempo. -
Alviin, el vehículo terrestre, autónomo controlado por una red neuronal
En Navlab de CMU creo el vehículo autónomo conducido por redes neuronales. -
Surge el nuevo metodo "Support Vector MChines "
Forma matemáticamente de desarrollar redes neuronales de dos capas -
Hilton y Neal
Creacion del algoritmo de "Wake up or Sleep" para redes neuronales no suervisadas -
LSTM
Resuelve el problema de como entrenar redes neuronales concurrentes -
Método: “Training Products of Experts by Minimizing Contrastive Divergence”
Describe de forma eficiente, maximizando las probabilidades de que las unidades generen los datos de entrenamiento -
Jeff Dean y Andrew Ng
Desarrollan la red neuronal mas grande antes vista, con 16000 núcleos de CPU entrenada sin supervisión y con videos de Youtube; aprendiendo a reconocer los objetos mas comunes en esos videos