-
Comienzo
-
Implementacion del Primer Perceptron
Marvin Minsky implementa en hardware el primer Perceptron para demostrar su utilidad. -
Nace el Concepto de IA
Jhon McCarthy formula el concepto de IA como "El arte de crear computadores y software capaz de tener comportamiento inteligente" -
Concepción del modelo Matematico simplificado de Perceptron
Creación del Perceptron por Frank Rosenblatt -
Concepcion de Redes Neuronales sin Perceptron
Bernard Widrow y Tedd Hoff conciben crear red neuronal con ayuda de una neura adaptable "ADALINE" la cual empleaba memistrores (Resistencias con memoria) -
Presentacion de la IA en TV
-
Numerosas Investigaciones en IA
Se crea el concepto de Backpropagation -
Period: to
Primer "Invierno" de investigacion de IA
Falta de interés en la comunidad academica -
Muestra de Escepticismo hacia la Inteligencia Artificial
Marvin Minsky fundador del MIT AI Lab, y Seymour Papert jefe de laboratorio mostraron su escepticismo en el libro llamado Perceptrons -
Se implementa por primera vez Backpropagation
Seppo Linnainmaa implemeta por primera vez la Backpropagation -
Backpropagation para IA
Paul Werbos propone emplear la Backpropagation para la inteligencia artificial de manera profunda en su tesis de PhD -
Publicacion de la aplicacion de Backprop investigada por Werbos
-
Creación del algoritmo de aprendizaje para maquinas de Bollzmann
Distribución de los pesos de las entradas es calculada a partir de la probabilidad de que la salida de la neurona ses 1 o 0, lo que convierte al sistema en un sistema estocástico. -
Financiación del Instituto Canadiense CIFAR
Instituto el cual fomenta la investigación de la IA y las redes neuronales -
Redes Neuronales de Feedforward
Descubrimiento de que estas redes son aplicaciones universales, que pueden ser aplicadas a cualquier aplicación. -
Primeras Aplicaciones de Backpropagation
Yann LeCun et al, aplica la Backprop para hacer un sistema que reconoce el código postal escrito a mano -
Alviin, el vehículo terrestre, autónomo controlado por una red neuronal
En Navlab de CMU creo el vehículo autónomo conducido por redes neuronales. -
El Reconocimiento de Fonemas usando Retardo de Tiempo de Redes Neuronales TDNN
Alexander Weibel y Hinton resuelven la falta de memoria en las redes neuronales, con el algoritmo de retardo de tiempo. -
Los Autoencoders de Hinton.
Se estudia la posibilidad de emplear autoencoders para resolver los problemas de codificación en Backpropagation -
Publicación de "A Coneectionist Approach to Speech Recognition"
Bengio resume en este paper la falla general de la enseñanza eficiente en las RNNs -
Creacion del algoritmo de "Wake up or Sleep" para redes neuronales no suervisadas
Hilton y Neal desarrollaron este algoritmo para poder hacer mas rápido el proceso de entrenamiento. -
Demostración de la Tesis Doctoral
Aprendizaje de Refuerzo para robots usando redes neuronales. -
Investigación de Sebastian Thrun
Se detecta el nuevo callejón sin salida para la IA, debido a la falta de análisis de posibilidades futuras y la inmadurez del hardware. -
Publicación de "Convolutional Networks for Images, Speech, and TimeSeries"
Por Yoshua Bengio -
Surge el nuevo metodo "Support Vector MChines "
Forma matemáticamente de desarrollar redes neuronales de dos capas, -
Se introduce el nuevo concepto de LSTM
LSTM Resuelve el problema de como entrenar redes neuronales concurrentes. -
Period: to
Segundo "Invierno" de las Redes Neuronales
-
Se introduce el método: “Training Products of Experts by Minimizing Contrastive Divergence”
Que describe de forma eficiente, maximizando las probabilidades de que las unidades generen los datos de entrnamiento -
Hinston Inicia la Dirección de un Nuevo Programa de Computación Neural
-
Publicación del Articulo: "A fast learning algorithm for deep belief nets"
Hinton, Simon Osindero y Yee-Whye Teh realizaron la publicación para reavivar los intereses sobre la IA en la comunidad -
Se Publica: "Greedy layerwise Training of Deep Networks"
Donde se argumenta fuertemente la razón por la que algoritmos con métodos de Deep Learning funcionan mejor que los métodos superficiales. -
Se Publica: “Large-scale Deep Unsupervised Learning using Graphics Processors”
Estudio que demuestra la diferencia en potencia de procesamiento al emplear GPUs, en vez de CPUs -
Nacimiento del Cerebro de Google
Jeff Dean y Andrew Ng desarrollan la red neuronal mas grande antes vista, con 16000 núcleos de CPU entrenada sin supervisión y con videos de Youtube; aprendiendo a reconocer los objetos mas comunes en esos videos. -
Publicación de: “Deep Neural Networks for Acoustic Modeling in Speech Recognition: The Shared Views of Four Research Groups”
Resultados de los cuatro grupos de investigación que estudiaban el aprendizaje prundo -
Skype - Traductor en Tiempo Real