C4b03acd0dc22be075495e32afd18628

Redes Neuronales

By xixo007
  • Teoría del Neurona de Ramón y Cajal

    Teoría del Neurona de Ramón y Cajal
    Teoría del Neurona de Ramón y Cajal: Santiago Ramón y Cajal, neurocientífico español, formula la teoría del neurona, postulando que el cerebro está compuesto por células individuales llamadas neuronas que se comunican entre sí mediante conexiones sinápticas.
  • Turing estudia el cerebro como una forma de ver el mundo de la computación.

    Turing estudia el cerebro como una forma de ver el mundo de la computación.
    En 1943 una serie de matemáticos lanzan una teoría acerca de la forma de trabajar de las neuronas. Ellos modelaron una red neuronal simple mediante circuitos eléctricos.
  • Modelo de Neurona de McCulloch-Pitts:

    Modelo de Neurona de McCulloch-Pitts:
    Modelo de Neurona de McCulloch-Pitts: Warren McCulloch y Walter Pitts publican un artículo que describe un modelo matemático simplificado de la neurona, estableciendo las bases para las redes neuronales artificiales.
  • Reglas de aprendizaje auto supervisado o no supervisado, Donald Hebb

    Reglas de aprendizaje auto supervisado o no supervisado, Donald Hebb
    Este es el fundamento de la mayoría de las funciones de aprendizaje que pueden hallarse en una red neuronal. Su idea fue que el aprendizaje ocurría cuando ciertos cambios en una neurona eran activados.
  • Karl Lashley - Centralización del cerebro.

    Karl Lashley - Centralización del cerebro.
    En sus series de ensayos, encontró que la información no era almacenada en forma centralizada en el cerebro sino que era distribuida encima de él.
  • Implementacion del Primer Perceptron

    Implementacion del Primer Perceptron
    Marvin Minsky implementa en hardware el primer Perceptrón para demostrar su utilidad.
  • Congreso de Dartmouth.

    Congreso de Dartmouth.
    Este Congreso frecuentemente se menciona para indicar el nacimiento de la inteligencia artificial.
  • Desarrollo del perceptrón - Frank Rosenblatt.

    Desarrollo del perceptrón - Frank Rosenblatt.
    Esta es la red neuronal más antigua; utilizándose hoy en día para aplicación como identificador de patrones. Este modelo era capaz de generalizar, es decir, después de haber aprendido una serie de patrones podía reconocer otros similares, aunque no se le hubiesen presentado en el entrenamiento.
  • Principios de Neurodinámica - Frank Rosenblatt.

    Principios de Neurodinámica - Frank Rosenblatt.
    En este libro confirmó que, bajo ciertas condiciones, el aprendizaje del Perceptron convergía hacia un estado finito (Teorema de Convergencia del Perceptron).
  • Bernard Widroff/Marcian Hoff. Desarrollaron el modelo Adaline

    Bernard Widroff/Marcian Hoff. Desarrollaron el modelo Adaline
    (ADAptative LINear Elements). Esta fue la primera red neuronal aplicada a un problema real (filtros adaptativos para eliminar ecos en las líneas telefónicas) que se ha utilizado comercialmente durante varias décadas.
  • Publicación de "Perceptrons": Marvin Minsky y Seymour Papert

    Publicación de "Perceptrons": Marvin Minsky y Seymour Papert
    publican un libro criticando las limitaciones del Perceptrón, lo que provocó un estancamiento temporal en la investigación de redes neuronales.
  • Perceptrón multicapa, aprendizaje por retro programación,Paul Werbos

    Perceptrón multicapa, aprendizaje por retro programación,Paul Werbos
    A mediados de la década de los setenta, Paul Werbos en su tesis doctoral propone el Algoritmo Backpropagation, que permite entrenar al Perceptron multicapa y posibilita su aplicación en la solución de una gran variedad de problemas de alta complejidad como lo veremos a lo largo de este capítulo.
  • Paul Werbos - Desarrolló la idea básica del algoritmo de aprendizaje.

    Desarrolló la idea básica del algoritmo de aprendizaje de propagación hacia atrás (backpropagation); cuyo significado quedó definitivamente aclarado en 1985.
  • Stephen Grossberg: Teoría de Resonancia Adaptada (TRA).

    La resonancia consiste en la combinación lineal de estructuras teóricas de una molécula (estructuras resonantes o en resonancia) que no coinciden con la estructura real, pero que mediante su combinación nos acerca más a su estructura real.
  • Redes neuronales recurrentes, John Hopfield

    Redes neuronales recurrentes, John Hopfield
    En 1982 John Hopfield con la publicación del artículo Hopfield Model o Crossbar
    Associative Network, junto con la invención del algoritmo Backpropagation se
    consiguió devolver el interés y la confianza en el fascinante campo de la computación
    neuronal tras dos décadas de casi absoluta inactividad y desinterés.Hopfield presenta un sistema de computación neuronal consistente en elementos
    procesadores interconectados que buscan y tienden a un mínimo de energía.
  • Provocación del renacimiento de las redes neuronales - John Hopfield.

    John Hopfield. Provocó el renacimiento de las redes neuronales con su libro: “Computación neuronal de decisiones en problemas de optimización.”
  • Creación del algoritmo de aprendizaje para maquinas de Bollzmann.

    Distribución de los pesos de las entradas es calculada a partir de la probabilidad de que la salida de la neurona ses 1 o 0, lo que convierte al sistema en un sistema estocástico.
  • David Rumelhart publica su libro “Parallel distributed processing: Explo-rations in the microstructure of cognition”

    David Rumelhart publica su libro “Parallel distributed processing: Explo-rations in the microstructure of cognition”
    En el cual difunde ampliamente el algoritmo de entrenamiento de un Perceptronmulticapa. Con este algoritmo se da respuesta al interrogante que Papert y Minsky, le plantearon a Rosenblatt, de cómo en-trenar la capa oculta del MLP, si no se tenían datos esperados de salida para esta capa.
  • Teorema de aproximacion universal, George Cybenko

    Teorema de aproximacion universal, George Cybenko
    Este teorema establece que una red neuronal feedforward (perceptrón multicapa) con una capa oculta que emplea una función de activación no lineal (como la función sigmoidea), puede aproximar cualquier función continua definida en un conjunto compacto con un grado de precisión arbitrario, siempre que la capa oculta tenga suficientes neuronas.
  • Surge el nuevo metodo "Support Vector MChines"

    Forma matemáticamente de desarrollar redes neuronales de dos capas.
  • Sepp Hochreiter y Jürgen Schmidhuber introducen las redes neuronales recurrentes de largo plazo

    Sepp Hochreiter y Jürgen Schmidhuber introducen las redes neuronales recurrentes de largo plazo (LSTM), un tipo de red recurrente capaz de aprender dependencias a largo plazo.
  • Geoffrey Hinton presenta el concepto de deep learning

    Geoffrey Hinton presenta el concepto de deep learning
    Para explicar unos nuevos algoritmos capaces de ver y distinguir objetos y textos en diferentes imágenes y vídeos. No obstante, la historia del aprendizaje profundo empezó 60 años antes de este hito.
  • Nacimiento del Cerebro de Google.

    Jeff Dean y Andrew Ng desarrollan la red neuronal mas grande antes vista, con 16000 núcleos de CPU entrenada sin supervisión y con videos de Youtube; aprendiendo a reconocer los objetos mas comunes en esos videos.
  • AlexNet de Alex Krizhevsky, Geoffrey Hinton y otros, gana la competencia ImageNet

    AlexNet de Alex Krizhevsky, Geoffrey Hinton y otros, gana la competencia ImageNet y marca un hito en el aprendizaje profundo.
  • Redes Neuronales Generativas Adversarias (GANs) - Concepto introducido en 2014

    Redes Neuronales Generativas Adversarias (GANs): Las GANs permiten generar datos sintéticos realistas (imágenes, audio, texto) aprendiendo de datos reales. Tienen aplicaciones en generación de contenido, aumento de datos, inpainting, etc.
  • Transferencia de estilo neuronal

    Transferencia de estilo neuronal (2016): Permite transferir el estilo artístico de una imagen a otra, combinando características de contenido y estilo, con aplicaciones en edición de imágenes y generación de arte.
  • Redes neuronales transformer ("Attention is All You Need", 2017)

    Redes neuronales transformer (Attention is All You Need, 2017): El modelo transformer, basado en mecanismos de atención, ha revolucionado el procesamiento del lenguaje natural y otras tareas. Modelos como BERT, GPT, etc. han demostrado un rendimiento excepcional.
  • Period: to

    Modelos de visión por computadora (EfficientNet, 2019 / Redes transformadoras de visión, 2020)

    Modelos de visión por computadora (EfficientNet, 2019 / Redes transformadoras de visión, 2020): Las redes neuronales han logrado avances significativos en tareas de visión por computadora como la clasificación de imágenes, detección de objetos y segmentación semántica.