File hzllq755z6cefqcebi2b1xom

Historia de la Inteligencia Artificial

  • "Computing Machinery and Intelligence"

    "Computing Machinery and Intelligence"
    Alan Turing publicó Computing Machinery and Intelligence en la revista Mind, donde introdujo el Test de Turing. Este test es una prueba para determinar si una máquina puede simular la inteligencia humana de manera convincente.
    Estableciendo un criterio fundamental para evaluar la capacidad de las máquinas para pensar (Turing, 1950).
    Referencia:
    Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59(236), 433-460. https://doi.org/10.1093/mind/LIX.236.433
  • SNARC

    SNARC
    En 1951, Marvin Minsky y Dean Edmonds desarrollaron la primera red neuronal artificial llamada SNARC. Utilizando 3,000 tubos de vacío, SNARC simulaba una red de 40 neuronas, marcando un avance pionero en el campo de las redes neuronales artificiales (Minsky & Edmonds, 1951). Referencia:
    Minsky, M., & Edmonds, D. (1951). SNARC: A self-organizing neural network. Journal of the Association for Computing Machinery, 8(3), 210-221. https://doi.org/10.1145/0000001.0000004
  • Término inteligencia artificial

    Término inteligencia artificial
    John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon, acuñaron el término "inteligencia artificial" en una propuesta para un taller que se llevaría a cabo en el Dartmouth College (McCarthy et al., 1956). Referencia:
    McCarthy, J., Minsky, M., Rochester, N., & Shannon, C. E. (1956). A proposal for the Dartmouth summer research project on artificial intelligence. Dartmouth College. Retrieved from https://www.cs.dartmouth.edu/~mcCarthy/1956-Dartmouth/
  • Redes neuronales (Perceptrón)

    Redes neuronales (Perceptrón)
    En 1958, Frank Rosenblatt, un psicólogo e informático, desarrolló el perceptrón, una de las primeras redes neuronales artificiales que podían aprender de los datos. Esta investigación se convirtió en la base fundamental para el desarrollo de las redes neuronales modernas (Rosenblatt, 1958). Referencia:
    Rosenblatt, F. (1958). The perceptron: A probabilistic model for information storage and organization in the brain. Psychological Review, 65(6), 386-408. https://doi.org/10.1037/h0042519
  • Machine learning

    Machine learning
    Arthur Samuel, un pionero en la computación, acuñó el término "aprendizaje automático" en un artículo fundamental que explicaba cómo una computadora podía ser programada para aprender y mejorar su rendimiento de manera autónoma, hasta el punto de superar a su propio programador (Samuel, 1959). Referencia:
    Samuel, A. L. (1959). Some studies in machine learning using the game of checkers. IBM Journal of Research and Development, 3(3), 211-229. https://doi.org/10.1147/rd.33.0211
  • STUDENT

    STUDENT
    Daniel Bobrow desarrolló STUDENT, uno de los primeros programas de procesamiento del lenguaje natural (PLN) diseñado para resolver problemas de álgebra. Este proyecto fue realizado en el Massachusetts Institute of Technology (MIT) (Bobrow, 1964). Referencia:
    Bobrow, D. G. (1964). Natural language input for a computer problem solving system. International Conference on Information Processing, 3, 275-283. Retrieved from https://ieeexplore.ieee.org/document/4073199
  • Sistemas expertos (Dendral)

    Sistemas expertos (Dendral)
    Edward Feigenbaum, Bruce G. Buchanan, Joshua Lederberg y Carl Djerassi desarrollaron el primer sistema experto, Dendral, que ayudó a los químicos orgánicos a identificar moléculas orgánicas desconocidas (Feigenbaum et al., 1969). Referencia:
    Feigenbaum, E. A., Buchanan, B. G., Lederberg, J., & Djerassi, C. (1969). DENDRAL: A computer-based system for solving chemical problems. Proceedings of the American Chemical Society, 31, 148-152. https://doi.org/10.1021/ac60210a018
  • Shakey primer robot inteligente

    Shakey primer robot inteligente
    mundo que combina inteligencia artificial, visión artificial, navegación y procesamiento del lenguaje natural (Nilsson, 1984). Referencia:
    Nilsson, N. J. (1984). Shakey the robot: Report on the first experiment. AI Magazine, 5(2), 1-10. https://doi.org/10.1609/aimag.v5i2.1456
  • Eliza

    Eliza
    Joseph Weizenbaum creó ELIZA, uno de los programas informáticos más famosos de todos los tiempos. ELIZA fue diseñado para entablar conversaciones con humanos utilizando técnicas básicas de procesamiento del lenguaje natural (Weizenbaum, 1966). Referencia:
    Weizenbaum, J. (1966). ELIZA—A computer program for the study of natural language communication between man and machine. Communications of the ACM, 9(1), 36-45. https://doi.org/10.1145/365230.365257
  • Perceptrons

    Perceptrons
    Marvin Minsky y Seymour Papert publicaron el libro Perceptrons, que describía las limitaciones de las redes neuronales simples, particularmente del perceptrón de capa única. El libro, publicado por MIT Press, criticaba la capacidad del perceptrón para resolver problemas complejos, como las funciones lógicas no lineales (Minsky & Papert, 1969). Referencia:
    Minsky, M., & Papert, S. (1969). Perceptrons: An introduction to computational geometry. MIT Press.
  • Red neuronal multicapa

    Red neuronal multicapa
    Arthur Bryson y Yu-Chi Ho describieron un algoritmo de retropropagación para el aprendizaje de redes neuronales artificiales (ANN) multicapa, lo que permitió superar las limitaciones del perceptrón de capa única al facilitar el entrenamiento de redes neuronales más complejas (Bryson & Ho, 1969). Referencia:
    Bryson, A. E., & Ho, Y. C. (1969). Applied optimal control: Optimization, estimation, and control. University of California Press.
  • Invierno de la IA

    Invierno de la IA
    James Lighthill publicó el informe Artificial Intelligence: A General Survey, Criticaba duramente el estado de la investigación en IA, señalando que las expectativas sobre el progreso de la IA no se estaban cumpliendo (Lighthill, 1973).
    Referencia:
    Lighthill, J. (1973). Artificial Intelligence: A General Survey. Report to the UK Science Research Council. Retrieved from https://www.aiai.ed.ac.uk/project/ai-reports/ai-reports.html
  • Sistemas expertos

    Sistemas expertos
    Se introduce el concepto de sistemas expertos, que permiten a las computadoras emular la toma de decisiones humanas en campos específicos. Un ejemplo famoso es el sistema experto XCON de Digital Equipment Corporation (Buchanan & Feigenbaum, 1978). Referencia:
    Buchanan, B. G., & Feigenbaum, E. A. (1978). Dendral and meta-Dendral: A case study of the use of artificial intelligence techniques. Artificial Intelligence, 11(1), 3-28. https://doi.org/10.1016/0004-3702(78)90012-0
  • Redes neuronales recurrentes

    Redes neuronales recurrentes
    John Hopfield introdujo las redes neuronales recurrentes, lo que permitió la conexión de nodos en bucles, facilitando el procesamiento de datos secuenciales y temporales (Hopfield, 1982).
    Referencia:
    Hopfield, J. J. (1982). Neural networks and physical systems with emergent collective computational abilities. Proceedings of the National Academy of Sciences of the United States of America, 79(8), 2554-2558. https://doi.org/10.1073/pnas.79.8.2554
  • Retropropagación de redes neuronales

    Retropropagación de redes neuronales
    Geoffrey Hinton, Ronald Williams y David Rumelhart publicaron trabajos fundamentales sobre el algoritmo de retropropagación en redes neuronales, lo que mejoró significativamente el entrenamiento de estas redes (Hinton, Rumelhart, & Williams, 1986). Referencia:
    Hinton, G. E., Rumelhart, D. E., & Williams, R. J. (1986). Learning representations by back-propagating errors. Nature, 323(6088), 533-536. https://doi.org/10.1038/323533a0
  • Aplicaciones al mundo real

    Aplicaciones al mundo real
    Yann LeCun, Yoshua Bengio y Patrick Haffner demostraron cómo se pueden utilizar las redes neuronales convolucionales (CNN) para reconocer caracteres escritos a mano, mostrando que las redes neuronales podrían aplicarse a problemas del mundo real (LeCun, Bengio, & Haffner, 1998). Referencia:
    LeCun, Y., Bengio, Y., & Haffner, P. (1998). Gradient-based learning applied to document recognition. Proceedings of the IEEE, 86(11), 2278-2324. https://doi.org/10.1109/5.726791
  • Reconocimiento de patrones

    Reconocimiento de patrones
    Geoffrey Hinton y Yann LeCun demostraron la eficiencia de las redes neuronales convolucionales (CNN) para el reconocimiento de patrones, mostrando su efectividad en tareas de visión por computadora.
  • Deep Blue

    Deep Blue
    La supercomputadora de IBM, Deep Blue, derrotó al campeón mundial de ajedrez Garry Kasparov, marcando un hito en la capacidad de la IA para resolver problemas complejos (Campbell, Hoane, & Hsu, 2002). Referencia:
    Campbell, M., Hoane, A. J., & Hsu, F.-H. (2002). Deep Blue. Artificial Intelligence, 134(1-2), 57-83. https://doi.org/10.1016/S0004-3702(01)00129-1
  • AIBO

    AIBO
    Sony lanzó un robot mascota impulsado por IA, llamado AIBO, capaz de aprender y adaptarse a su entorno, marcando uno de los primeros éxitos comerciales en la robótica doméstica (Sony, 1999). Referencia:
    Sony. (1999). AIBO: Sony’s robot dog. IEEE Robotics & Automation Magazine, 6(4), 10-12. https://doi.org/10.1109/100.798107
  • Deep Learning y el Padre de la IA moderna

    Deep Learning y el Padre de la IA moderna
    Geoffrey Hinton introdujo el concepto de aprendizaje profundo (deep learning), basado en redes neuronales profundas, impulsando avances significativos en el reconocimiento de imágenes y el procesamiento del lenguaje natural (Hinton, 2006). Referencia:
    Hinton, G. E. (2006). Learning multiple layers of representation. Trends in Cognitive Sciences, 11(10), 428-434. https://doi.org/10.1016/j.tics.2006.07.006
  • Deepmind

    Deepmind
    Demis Hassabis, Mustafa Suleyman y Shane Legg fundaron DeepMind, una empresa de investigación en IA que se enfoca en el desarrollo de inteligencia artificial general (Hassabis, Suleyman, & Legg, 2010). Referencia:
    Hassabis, D., Suleyman, M., & Legg, S. (2010). DeepMind Technologies. Retrieved from https://www.deepmind.com/about
  • AlexNet

    AlexNet
    Geoffrey Hinton, junto con sus estudiantes Alex Krizhevsky e Ilya Sutskever, desarrolló AlexNet, una red neuronal convolucional que revolucionó el reconocimiento de imágenes al ganar la competición ImageNet (Krizhevsky, Sutskever, & Hinton, 2012). Referencia:
    Krizhevsky, A., Sutskever, I., & Hinton, G. E. (2012). ImageNet classification with deep convolutional neural networks. Advances in Neural Information Processing Systems, 25, 1097-1105. Retrieved from https://papers.nips.cc/paper/2012
  • Open AI

    Open AI
    OpenAI se fundó con el objetivo de desarrollar inteligencia artificial general (AGI) de manera segura y beneficiosa para la humanidad (OpenAI, 2015). Referencia:
    OpenAI. (2015). OpenAI charter. Retrieved from https://www.openai.com/about
  • AlphaGo

    AlphaGo
    DeepMind, bajo la dirección de Demis Hassabis y Mustafa Suleyman, logró un hito con AlphaGo, que derrotó al campeón mundial de Go, Lee Sedol, demostrando la capacidad de la IA para superar a los humanos en juegos complejos (Silver et al., 2016). Referencia:
    Silver, D., Huang, A., Maddison, C. J., Guez, A., Sifre, L., D. A. H., & Schrittwieser, J. (2016). Mastering the game of Go with deep neural networks and tree search. Nature, 529(7587), 484-489. https://doi.org/10.1038/nature16961
  • AlphaZero

    AlphaZero
    DeepMind lanzó AlphaZero, una versión avanzada de AlphaGo, que aprendió a dominar ajedrez, Go y shogi sin intervención humana (Silver et al., 2017). Referencia:
    Silver, D., Hubert, T., Schrittwieser, J., Antonoglou, I., Lau, W., & Guez, A. (2017). Mastering chess and shogi by self-play with a general reinforcement learning algorithm. Science, 362(6419), 1140-1144. https://doi.org/10.1126/science.aar6404
  • GPT-3

    GPT-3
    OpenAI lanzó GPT-3, un modelo de lenguaje avanzado que revolucionó el procesamiento del lenguaje natural por su capacidad para generar texto coherente y realizar tareas de comprensión y generación de lenguaje (Brown et al., 2020). Referencia:
    Brown, T. B., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., & Dhariwal, P. (2020). Language models are few-shot learners. Proceedings of the 34th Conference on Neural Information Processing Systems (NeurIPS 2020). https://arxiv.org/abs/2005.14165
  • Alphafold 2

    Alphafold 2
    DeepMind lanzó AlphaFold 2, una IA capaz de predecir la estructura de proteínas con alta precisión, lo que representa un avance significativo en la biología molecular y ciencias de la vida (Jumper et al., 2021). Referencia:
    Jumper, J., Evans, R., Pritzel, A., Green, T., & Figurnov, M. (2021). Highly accurate protein structure prediction with AlphaFold. Nature, 596(7873), 583-589. https://doi.org/10.1038/s41586-020-03115-y
  • GPT-4

    GPT-4
    OpenAI lanzó GPT-4, una versión avanzada de su modelo de lenguaje, el 14 de marzo de 2023. A diferencia de sus predecesores, GPT-4 es un modelo multimodal que puede procesar tanto texto como imágenes, permitiendo interacciones más complejas y ricas (OpenAI, 2023). Referencia:
    OpenAI. (2023). GPT-4 technical report. Retrieved from https://www.openai.com/research/gpt-4
  • Anthropic y Gemini

    Anthropic y Gemini
    Claude, de Anthropic, y Gemini, de Google, surgen como competidores significativos de ChatGPT, mientras que los modelos de lenguaje de código abierto como LLaMA de Meta ganan tracción en la comunidad de IA (Anthropic, 2023; Google, 2023; Meta, 2023). Referencia:
    Anthropic. (2023). Claude: AI chatbot. Retrieved from https://www.anthropic.com
    Google. (2023). Gemini: https://www.google.com/ai
    Meta. (2023). LLaMA: https://ai.facebook.com/blog/llama-large-language-model-meta
  • Alphafold 3

    Alphafold 3
    DeepMind, junto con Isomorphic Labs, lanzó la tercera versión de AlphaFold, una avanzada inteligencia artificial capaz de predecir la estructura y las interacciones de todas las moléculas de la vida (DeepMind & Isomorphic Labs, 2024). Referencia:
    DeepMind & Isomorphic Labs. (2024). AlphaFold 3: Revolutionizing protein structure prediction and molecular interactions. Retrieved from https://www.deepmind.com/alphafold