UD0-TAREA1-LÍNEA DEL TIEMPO DE LA IA

  • Modelo de Neurona McCulloch-Pitts

    Modelo de Neurona McCulloch-Pitts
    Warren McCulloch y Walter Pitts proponen el primer modelo matemático de una neurona artificial. Este modelo, conocido como la neurona McCulloch-Pitts, sentó las bases para el desarrollo de las redes neuronales artificiales y la computación neuronal
  • La Prueba de Turing

    La Prueba de Turing
    Alan Turing propone la «Prueba de Turing» para evaluar la inteligencia de las máquinas. Esta prueba plantea un método para determinar si una máquina puede exhibir un comportamiento inteligente equivalente al de un ser humano
  • Conferencia de Dartmouth

    Conferencia de Dartmouth
    Se acuña el término «Inteligencia Artificial» en esta histórica conferencia. Organizada por John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon, la Conferencia de Dartmouth reunió a destacados investigadores para discutir la posibilidad de crear máquinas que pudieran simular aspectos de la inteligencia humana.
  • El Perceptrón de Rosenblatt

    El Perceptrón de Rosenblatt
    Frank Rosenblatt desarrolla el Perceptrón, el primer modelo de red neuronal implementado en hardware. Este dispositivo podía aprender a clasificar patrones simples, marcando un hito importante en el desarrollo de las redes neuronales artificiales y el aprendizaje automático.
  • ELIZA: El Primer Chatbot

    ELIZA: El Primer Chatbot
    Joseph Weizenbaum crea ELIZA, considerado el primer programa de chat o chatbot. ELIZA fue diseñada para simular una conversación con un psicoterapeuta rogeriano, utilizando técnicas de procesamiento de lenguaje natural simples pero efectivas. El programa funcionaba principalmente reconociendo palabras clave en las entradas del usuario y respondiendo con frases pregrabadas o reformulando las declaraciones del usuario como preguntas
  • El Stanford Cart: Pionero en Navegación Autónoma

    El Stanford Cart: Pionero en Navegación Autónoma
    El Stanford Cart se convierte en uno de los primeros robots móviles capaces de navegar de forma autónoma en entornos con obstáculos. Desarrollado en la Universidad de Stanford bajo la dirección de Hans Moravec, el Cart utilizaba una cámara de televisión montada en un riel deslizante para tomar múltiples imágenes desde diferentes ángulos. Estas imágenes se procesaban para crear un mapa 3D del entorno y planificar una ruta libre de obstáculos
  • Popularización del Algoritmo de Retropropagación

    Popularización del Algoritmo de Retropropagación
    David Rumelhart, Geoffrey Hinton y Ronald Williams publican un influyente artículo sobre el algoritmo de retropropagación, que se convierte en un método fundamental para entrenar redes neuronales profundas. Aunque el concepto existía antes, este trabajo popularizó su uso y demostró su eficacia en una variedad de problemas de aprendizaje.
  • Deep Blue vs. Kasparov

    Deep Blue vs. Kasparov
    Deep Blue de IBM vence al campeón mundial de ajedrez Garry Kasparov. Este evento histórico marcó la primera vez que una computadora derrotó a un campeón mundial de ajedrez en un match a seis partidas bajo condiciones de torneo. Deep Blue, desarrollado por un equipo de ingenieros de IBM, utilizaba una combinación de hardware especializado y software sofisticado para evaluar millones de posiciones por segundo
  • Stanley Gana el DARPA Grand Challenge

    Stanley Gana el DARPA Grand Challenge
    Stanley, un vehículo autónomo desarrollado por la Universidad de Stanford, gana el DARPA Grand Challenge. Esta competición, organizada por la Agencia de Proyectos de Investigación Avanzados de Defensa de EE.UU, desafió a crear vehículos autónomos capaces de navegar un curso de 212 km a través del desierto. La victoria de Stanley marcó un hito importante en el desarrollo de vehículos autónomos, demostrando la viabilidad de la tecnología de conducción autónoma en entornos complejos.
  • Watson en Jeopardy!

    Watson en Jeopardy!
    Watson gana el concurso de preguntas y respuestas Jeopardy! El logro demostró la capacidad de la IA para procesar y comprender el lenguaje natural en un contexto competitivo en tiempo real. Watson, un sistema de inteligencia artificial compitió contra los campeones humanos Ken Jennings y Brad Rutter en una serie de tres episodios. El sistema fue capaz de entender las preguntas formuladas en lenguaje natural, buscar en su vasta base de conocimientos, y formular respuestas coherentes y precisas
  • Introducción de las Redes Generativas Adversarias (GANs)

    Introducción de las Redes Generativas Adversarias (GANs)
    Ian Goodfellow y sus colegas introducen las Redes Generativas Adversarias (GANs). Este nuevo enfoque para el aprendizaje automático implica dos redes neuronales compitiendo entre sí, lo que permite la generación de datos sintéticos muy realistas. Las GANs han tenido un impacto significativo en áreas como la generación de imágenes y el aprendizaje no supervisado.
  • AlphaGo vence a Lee Sedol

    AlphaGo vence a Lee Sedol
    AlphaGo de DeepMind vence al campeón mundial de Go, Lee Sedol. Este evento marcó un hito en la historia de la IA, ya que el Go se consideraba uno de los juegos más desafiantes para las computadoras debido a su complejidad . AlphaGo,utilizó una combinación de aprendizaje profundo para lograr esta hazaña. La victoria de AlphaGo sobre Lee Sedol, en un match de cinco partidas, demostró la capacidad de la IA para manejar problemas de extrema complejidad y tomar decisiones estratégicas a largo plazo
  • BERT: Avance en la Comprensión del Lenguaje Natural

    BERT: Avance en la Comprensión del Lenguaje Natural
    Google introduce BERT (Bidirectional Encoder Representations from Transformers), un modelo de procesamiento de lenguaje natural que mejora significativamente la comprensión del contexto en las búsquedas. BERT representa un importante avance en la capacidad de las máquinas para entender y procesar el lenguaje humano en su contexto completo.
  • GPT-3: Un Salto en el Procesamiento del Lenguaje Natural

    GPT-3: Un Salto en el Procesamiento del Lenguaje Natural
    OpenAI lanza GPT-3 , un modelo de lenguaje de gran escala con 175 mil millones de parámetros. GPT-3 marcó un hito importante en el procesamiento del lenguaje natural debido a su capacidad para generar texto coherente y realizar una variedad de tareas lingüísticas sin necesidad de un fino ajuste específico para cada tarea. El modelo demostró habilidades sorprendentes en áreas como la traducción, el resumen de textos, la respuesta a preguntas y hasta la generación de código de programación.