HISTORIA DE LAS REDES NEURONALES Y DEEP LEARNING

  • 2017 BCE

    Tensorflow

    es una plataforma de inteligencia artificial, Google ha sido bastante explícito con el potencial de Tensorflow. Un ejemplo de lo que es capaz lo vemos en el traductor de Google. Esta aplicación utiliza TensorFlow para reconocer el texto de la cámara, para así traducir en tiempo real.
  • 2012 BCE

    el trabajo de Microsoft y Google, así como IBM y de Hinton laboratorio,

    dio lugar a los impresionantemente tituladas "Deep Neural Networks para Modelado acústico en el reconocimiento de voz: Los puntos de vista compartidos de cuatro grupos de investigación
  • 2012 BCE

    ANN GOOGLE

    Logro autoentrenarse para reconocer gatos en imágenes.
  • 2011 BCE

    Navdeep Jaitly

    Un estudiante de Hinton, se fue a un internado de verano en Google en 2011. Allí trabajó en el reconocimiento de voz de Google, y mostró su configuración existente podría ser
    muy mejorada mediante la incorporación de un aprendizaje profundo.
    El enfoque revisado pronto alimentado reconocimiento de voz de Android, en sustitución de gran parte de la solución antes cuidadosamente elaborado de Google
  • 2007 BCE

    Yoshua Bengio et al.

    DIO seguimiento a este trabajo "Capa-Wise Greedy Formación de Redes profundas", En el que presentan un fuerte argumento de que los métodos de aprendizaje automático de profundidad (es decir, métodos con muchos pasos de procesamiento)
  • 2006 BCE

    La ola de la investigación del aprendizaje profundo comenzó.

  • 2006 BCE

    Hinton, Simon Osindero, y Yee-Whye Teh

    hINTONPuso de manifiesto una tasa de error muy impresionante de sólo el 1,25% en la prueba, pero las SVM ya había conseguido una tasa de error del 1,4%, e incluso algoritmos simples podría conseguir tasas de error en un solo dígito.
    Hinton, Simon Osindero, y Yee-Whye Teh publicó un artículo en 2006 que fue visto como un gran avance, un avance suficientemente significativo como para reavivar el interés en las redes neuronales: Un algoritmo de aprendizaje rápido para profunda redes de creencias
  • 2005 BCE

    SALIDA DEL SEGUNDO INVIERNO

  • 2004 BCE

    Hinton

    Pidió que dirigiera un nuevo programa de computación neuronal. La comunidad de aprendizaje automático convencional no podría haber sido menos interesado en las redes neuronales.
  • 2000 BCE

    2000 fue una época oscura para la investigación de redes neuronales

  • 1998 BCE

    Yann LeCun

    Ha demostrado tasas de error de 0,95% en 1998 utilizando CNNs.
  • 1995 BCE

    INICIO SEGUNDO INVIERNO

  • 1995 BCE

    Hinton, junto con Neal y dos otros co-autores

    pronto llegó con trucos extra "El algoritmo de sueño-vigilia para las redes neuronales no supervisadas"
  • 1995 BCE

    Sebastian Thrun

    Se crea TD-Gammon "Aprender a jugar el juego de ajedrez" , y los resultados no fueron buenos
  • 1995 BCE

    Yoshua Bengio

    co-escribió el documento de síntesis "Redes convolucionales de imágenes, voz, y de series de tiempo"
  • 1992 BCE

    Redford M. Neal

    "aprendizaje conexionista de las redes de creencias" impulsa a Neal que inicie una idea similar en la red de creencias , que es esencialmente como una máquina de Boltzmann con conexiones dirigidas, hacia adelante.
  • 1990 BCE

    LeCun

    siguió siendo una de los principales defensores de CNNs en los Laboratorios Bell, y su obra en ellos dio lugar a un uso comercial importante para el check-lectura.
    uno de estos sistemas fue de lectura 10 a 20% de todos los controles en los EE.UU.
  • 1989 BCE

    Yann LeCun

    En los laboratorios de AT&T Bell mostró una aplicación al mundo real muy significativo de propagación hacia atrás, aplicada a la al reconocimiento de códigos,pasó a ser la base de los sistemas de registro de entrada de lectura desplegados a nivel nacional.
  • 1989 BCE

    Alexander Waibel et. otros (incluyendo Hinton)

    se introdujo en el "el reconocimiento de fonemas usando redes neuronales de acción retardada " inspiró LeCun para desarrollar redes neuronales convolucionales.
  • 1989 BCE

    Rosenblatt

    Parecía quizá estar al alcance para otro hallazgo clave "Las redes de alimentación directa de múltiples capas son aproximadores universales" modelo basado en la energía , y se ajusta en el aprendizaje basado en la energía marco teórico con la que muchos algoritmos de aprendizaje se pueden expresar.
  • 1986 BCE

    Yoshua Bengio

    Retorno de Redes neuronales a la popularidad con la backpropagation, Empezar a trabajar en el reconocimiento de voz con redes neuronales él co-escribió muchos artículos sobre el uso de redes neuronales y RNNs para el reconocimiento de voz.
  • 1986 BCE

    Rumenlhart, Hinton y Williams

    Formalizaron un método para que una red neuronal aprendiera la realación de entrada a la red y las salidas correspondientes, utilizando mas niveles de neuronas que los que utilizó rosenblatt para el desarrrollar el perceptron.
  • 1985 BCE

    David Parker

    Publico un informe sobre la Retropropagacion en el MIT.
  • 1985 BCE

    FIN PRIMER INVIERNO

  • 1985 BCE

    Hinton

    trabajó en un enfoque de red neuronal para el aprendizaje de las distribuciones de probabilidad "un algoritmo de aprendizaje para máquinas de Boltzmann"
  • 1982 BCE

    Geoffrey Hinton

    Realiza un acercamiento de ANN para el aprendizaje en maquinas de boltzamann
  • 1982 BCE

    David Parker

    El trabajo de werbos permanecio casi desconocido en la comunidad cientifica, pero Parker retomo su trabajo sobre Retropropagacion para entrenar las ANN
  • 1980 BCE

    Kunihiko Fukushima

    Con su noción de la Neurocognitron
  • 1974 BCE

    Pablo Werbos

    Propone que la Retropropagación puede ser utilizada en redes neuronales despues de analizar su tesis doctoral.
  • 1970 BCE

    PRIMER INVIERNO

  • 1970 BCE

    Seppo Linnainmaa

    Implementa la Retropropagación para que funcionen en equipos modernos como los de hoy en día.
  • 1969 BCE

    Minsky y Seymour Papert

    Minsky y Seymour Papert
    Publican "perceptrons" demuestran que el perceptron es limitado y esta probado en el libro “disillusioned years” 1969. El problema de perceptron es que sabían que con una red multi-capa podían separar la xor pero no había un algoritmo que entrenara para realizarlo .
  • 1963 BCE

    John McCarthy

    Fundo en la universidad de Stanford el laboratorio de IA.
  • 1960 BCE

    Bernard Widrow y Tedd Hoff

    Exploraron la opción de dar salida a la entrada del peso
    con un adoptivo DALINE (neurona usando quimicos, memistors), desarrollan modelos que se llamaron ADALINE y MADALINE.
  • 1958 BCE

    Frank Rosenblatt

    Nacimiento del primer algoritmo para un persentrón.
  • 1957 BCE

    John McCarthy y Marvin Minsky

    Fundan el laboratorio de inteligencia artificial del MIT, ayudando a motivar la creación del proyecto MAC.
  • 1956 BCE

    John Mccarthy

    El termino de inteligencia artificial se le atribuye durante una conferencia convocada.
  • 1951 BCE

    Marvin Masnky

    puede haber sido en realidad el primer investigador para implemenar una red neuronal con el hardware de ese tiempo lo cual llegoa Implementar a SNARC
  • 1888 BCE

    Santiago Ramón y Cajal

    Inicio con las neuronas biológicas donde descubrimiento de las sinapsis la cual interpretó, correctamente, su función y su estructura. Las sinapsis ejercen un papel fundamental en la teoría neuronal.
  • 1888 BCE

    INICIO