REDES NEURONALES

  • Perceptron

    El axón de una neurona entrega su información como "señal de entrada" a una dendrita de otra neurona y así sucesivamente.
  • Multilayer Perceptron

    1965 el científico Frank Rosenblatt, inspirado en el trabajo de Warren McCulloch y Walter Pitts creó el Perceptron,
  • Para los 80's

    Se les llama así a las redes en que las salidas de una capa son utilizadas como entradas en la próxima capa. ... Además existe el concepto de «fully connected Feedforward Networks» y se refiere a que todas las neuronas de entrada, están conectadas con todas las neuronas de la siguiente capa
  • 1989

    Convolutional neural networks (CNN) / Recurent neural networks (RNN) Deep learning (aprendizaje profundo) es una nueva técnica dentro del aprendizaje automático (machine learning) basado en arquitecturas de redes neuronales.
  • Long short term memory (LSTM)

    La memoria a largo plazo (LSTM) es una arquitectura artificial de red neuronal recurrente (RNN) utilizada en el campo del aprendizaje profundo. A diferencia de las redes neuronales de alimentación directa estándar, LSTM tiene conexiones de retroalimentación. No solo puede procesar puntos de datos individuales (como imágenes), sino también secuencias completas de datos
  • Felix Gers

    En 1999, Felix Gers y su asesor Jürgen Schmidhuber y Fred Cummins introdujeron la puerta de olvidar (también llamada "puerta de mantenimiento") en la arquitectura LSTM, permitiendo que LSTM restablezca su propio estado.
  • Deep Belief Networks (DBN)

    En el campo de aprendizaje de Inteligencia Artificial, una red de creencia profunda (Deep Belief Network, DBN) es un modelo gráfico generativo, o alternativamente un tipo de red neuronal profunda, compuesta por múltiples capas de variables latentes "unidades ocultas"
  • Kyunghyun Cho

    En 2014, Kyunghyun Cho et al. presenta una variante simplificada llamada unidad recurrente cerrada (GRU).
    Entre otros éxitos, LSTM logró resultados récord en la compresión de texto en lenguaje natural, reconocimiento de escritura a mano conectada no segmentada y ganó el concurso de escritura a mano ICDAR (2009). Las redes LSTM fueron un componente importante de una red que logró una tasa récord de 17.7% de error de fonemas en el clásico conjunto de datos de voz natural TIMIT (2013).