-
Teoría de la Computación
Alan Turing presenta el concepto de la "máquina de Turing", un modelo matemático fundamental para la computación y el desarrollo de algoritmos. -
Redes Neuronales
Warren McCulloch y Walter Pitts proponen un modelo matemático de neuronas artificiales, estableciendo las bases para el desarrollo de redes neuronales. -
Conferencia de Dartmouth
Se acuña el término "inteligencia artificial" y se establece el enfoque en algoritmos, lógica y teoría de conjuntos. -
Lógica Matemática
Se desarrollan métodos formales en lógica y teoría de la decisión, influyendo en los sistemas expertos y la programación lógica. -
Period: to
Algoritmos de Aprendizaje
Se introducen algoritmos de aprendizaje automático, basados en estadística y teoría de la probabilidad, como el algoritmo de inducción de decisiones. -
Retropropagación
Geoffrey Hinton y otros desarrollan el algoritmo de retropropagación, fundamental para el entrenamiento de redes neuronales profundas. -
Period: to
Máquinas de Vectores de Soporte (SVM)
Se presentan SVM, un avance en el aprendizaje supervisado que utiliza conceptos de geometría y optimización. -
Period: to
Aprendizaje Profundo
Con el aumento de la capacidad computacional, se desarrollan arquitecturas de redes neuronales profundas (DNN), apoyadas en álgebra lineal y cálculo. -
Period: to
Redes Generativas Antagónicas (GAN)
Ian Goodfellow introduce las GAN, combinando teoría de juegos y redes neuronales para generar datos sintéticos. -
Period: to
Transformers y Modelos de Lenguaje
Se presentan arquitecturas como Transformers, que utilizan técnicas avanzadas de álgebra y teoría de la información para el procesamiento del lenguaje natural.