-
2017 BCE
Tensorflow
es una plataforma de inteligencia artificial, Google ha sido bastante explícito con el potencial de Tensorflow. Un ejemplo de lo que es capaz lo vemos en el traductor de Google. Esta aplicación utiliza TensorFlow para reconocer el texto de la cámara, para así traducir en tiempo real. -
2012 BCE
el trabajo de Microsoft y Google, así como IBM y de Hinton laboratorio,
dio lugar a los impresionantemente tituladas "Deep Neural Networks para Modelado acústico en el reconocimiento de voz: Los puntos de vista compartidos de cuatro grupos de investigación -
2012 BCE
ANN GOOGLE
Logro autoentrenarse para reconocer gatos en imágenes. -
2011 BCE
Navdeep Jaitly
Un estudiante de Hinton, se fue a un internado de verano en Google en 2011. Allí trabajó en el reconocimiento de voz de Google, y mostró su configuración existente podría ser
muy mejorada mediante la incorporación de un aprendizaje profundo.
El enfoque revisado pronto alimentado reconocimiento de voz de Android, en sustitución de gran parte de la solución antes cuidadosamente elaborado de Google -
2007 BCE
Yoshua Bengio et al.
DIO seguimiento a este trabajo "Capa-Wise Greedy Formación de Redes profundas", En el que presentan un fuerte argumento de que los métodos de aprendizaje automático de profundidad (es decir, métodos con muchos pasos de procesamiento) -
2006 BCE
La ola de la investigación del aprendizaje profundo comenzó.
-
2006 BCE
Hinton, Simon Osindero, y Yee-Whye Teh
hINTONPuso de manifiesto una tasa de error muy impresionante de sólo el 1,25% en la prueba, pero las SVM ya había conseguido una tasa de error del 1,4%, e incluso algoritmos simples podría conseguir tasas de error en un solo dígito.
Hinton, Simon Osindero, y Yee-Whye Teh publicó un artículo en 2006 que fue visto como un gran avance, un avance suficientemente significativo como para reavivar el interés en las redes neuronales: Un algoritmo de aprendizaje rápido para profunda redes de creencias -
2005 BCE
SALIDA DEL SEGUNDO INVIERNO
-
2004 BCE
Hinton
Pidió que dirigiera un nuevo programa de computación neuronal. La comunidad de aprendizaje automático convencional no podría haber sido menos interesado en las redes neuronales. -
2000 BCE
2000 fue una época oscura para la investigación de redes neuronales
-
1998 BCE
Yann LeCun
Ha demostrado tasas de error de 0,95% en 1998 utilizando CNNs. -
1995 BCE
INICIO SEGUNDO INVIERNO
-
1995 BCE
Hinton, junto con Neal y dos otros co-autores
pronto llegó con trucos extra "El algoritmo de sueño-vigilia para las redes neuronales no supervisadas" -
1995 BCE
Sebastian Thrun
Se crea TD-Gammon "Aprender a jugar el juego de ajedrez" , y los resultados no fueron buenos -
1995 BCE
Yoshua Bengio
co-escribió el documento de síntesis "Redes convolucionales de imágenes, voz, y de series de tiempo" -
1992 BCE
Redford M. Neal
"aprendizaje conexionista de las redes de creencias" impulsa a Neal que inicie una idea similar en la red de creencias , que es esencialmente como una máquina de Boltzmann con conexiones dirigidas, hacia adelante. -
1990 BCE
LeCun
siguió siendo una de los principales defensores de CNNs en los Laboratorios Bell, y su obra en ellos dio lugar a un uso comercial importante para el check-lectura.
uno de estos sistemas fue de lectura 10 a 20% de todos los controles en los EE.UU. -
1989 BCE
Yann LeCun
En los laboratorios de AT&T Bell mostró una aplicación al mundo real muy significativo de propagación hacia atrás, aplicada a la al reconocimiento de códigos,pasó a ser la base de los sistemas de registro de entrada de lectura desplegados a nivel nacional. -
1989 BCE
Alexander Waibel et. otros (incluyendo Hinton)
se introdujo en el "el reconocimiento de fonemas usando redes neuronales de acción retardada " inspiró LeCun para desarrollar redes neuronales convolucionales. -
1989 BCE
Rosenblatt
Parecía quizá estar al alcance para otro hallazgo clave "Las redes de alimentación directa de múltiples capas son aproximadores universales" modelo basado en la energía , y se ajusta en el aprendizaje basado en la energía marco teórico con la que muchos algoritmos de aprendizaje se pueden expresar. -
1986 BCE
Yoshua Bengio
Retorno de Redes neuronales a la popularidad con la backpropagation, Empezar a trabajar en el reconocimiento de voz con redes neuronales él co-escribió muchos artículos sobre el uso de redes neuronales y RNNs para el reconocimiento de voz. -
1986 BCE
Rumenlhart, Hinton y Williams
Formalizaron un método para que una red neuronal aprendiera la realación de entrada a la red y las salidas correspondientes, utilizando mas niveles de neuronas que los que utilizó rosenblatt para el desarrrollar el perceptron. -
1985 BCE
David Parker
Publico un informe sobre la Retropropagacion en el MIT. -
1985 BCE
FIN PRIMER INVIERNO
-
1985 BCE
Hinton
trabajó en un enfoque de red neuronal para el aprendizaje de las distribuciones de probabilidad "un algoritmo de aprendizaje para máquinas de Boltzmann" -
1982 BCE
Geoffrey Hinton
Realiza un acercamiento de ANN para el aprendizaje en maquinas de boltzamann -
1982 BCE
David Parker
El trabajo de werbos permanecio casi desconocido en la comunidad cientifica, pero Parker retomo su trabajo sobre Retropropagacion para entrenar las ANN -
1980 BCE
Kunihiko Fukushima
Con su noción de la Neurocognitron -
1974 BCE
Pablo Werbos
Propone que la Retropropagación puede ser utilizada en redes neuronales despues de analizar su tesis doctoral. -
1970 BCE
PRIMER INVIERNO
-
1970 BCE
Seppo Linnainmaa
Implementa la Retropropagación para que funcionen en equipos modernos como los de hoy en día. -
1969 BCE
Minsky y Seymour Papert
Publican "perceptrons" demuestran que el perceptron es limitado y esta probado en el libro “disillusioned years” 1969. El problema de perceptron es que sabían que con una red multi-capa podían separar la xor pero no había un algoritmo que entrenara para realizarlo . -
1963 BCE
John McCarthy
Fundo en la universidad de Stanford el laboratorio de IA. -
1960 BCE
Bernard Widrow y Tedd Hoff
Exploraron la opción de dar salida a la entrada del peso
con un adoptivo DALINE (neurona usando quimicos, memistors), desarrollan modelos que se llamaron ADALINE y MADALINE. -
1958 BCE
Frank Rosenblatt
Nacimiento del primer algoritmo para un persentrón. -
1957 BCE
John McCarthy y Marvin Minsky
Fundan el laboratorio de inteligencia artificial del MIT, ayudando a motivar la creación del proyecto MAC. -
1956 BCE
John Mccarthy
El termino de inteligencia artificial se le atribuye durante una conferencia convocada. -
1951 BCE
Marvin Masnky
puede haber sido en realidad el primer investigador para implemenar una red neuronal con el hardware de ese tiempo lo cual llegoa Implementar a SNARC -
1888 BCE
Santiago Ramón y Cajal
Inicio con las neuronas biológicas donde descubrimiento de las sinapsis la cual interpretó, correctamente, su función y su estructura. Las sinapsis ejercen un papel fundamental en la teoría neuronal. -
1888 BCE
INICIO