-
Period: to
Década de 1950-1970: Primeros debates éticos
1950: Alan Turing plantea preguntas éticas sobre la inteligencia de las máquinas en su artículo "Computing Machinery and Intelligence". 1960s-1970s: Surgen los primeros debates sobre la ética en la informática y la automatización, aunque sin marcos formales de gobernanza. -
Década de 1980: Inicio de la regulación tecnológica
1980s: Se establecen las primeras normas sobre privacidad y protección de datos, como la OECD Privacy Guidelines (1980), que sentaron las bases para la regulación de tecnologías emergentes, incluida la IA. -
Década de 1990: Marcos éticos iniciales
1997: La Asilomar Conference on Beneficial AI discute los riesgos y beneficios de la IA, aunque con un enfoque más académico que regulatorio. 1990s: Surgen los primeros códigos de ética en informática, como los de la ACM (Association for Computing Machinery), que incluyen principios aplicables a la IA. -
Década de 2000: Regulación de datos y privacidad
2000s: La expansión de Internet y las tecnologías digitales lleva a la creación de marcos legales como la Directiva de Protección de Datos de la UE (1995, actualizada en 2000s), que influyen en el desarrollo de IA. 2007: La IEEE comienza a trabajar en estándares éticos para sistemas autónomos e inteligentes. -
Década de 2010: Gobernanza formal de la IA
2016: La Unión Europea publica sus primeras directrices sobre ética en IA, enfocadas en transparencia, responsabilidad y no discriminación. 2018: El GDPR (Reglamento General de Protección de Datos) de la UE entra en vigor, estableciendo estándares estrictos para el uso de datos en aplicaciones de IA. 2019: La OECD lanza sus Principios de IA, adoptados por más de 40 países, promoviendo el uso responsable de la IA. -
Period: to
Década de 2020: Plataformas y marcos globales
2020 -2021: La Comisión Europea propone el Reglamento de IA, el primer marco legal integral para regular la IA en la UE, clasificando los sistemas de IA por nivel de riesgo. UNESCO Recomienda sobre la Ética de la IA, adoptada por 193 países. 2022 2023: Surgen plataformas de gobernanza de IA herramientas para auditar y garantizar la equidad y privacidad en modelos de IA. OpenAI y otras empresas líderes en IA establecen comités de ética y supervisión para garantizar el desarrollo responsable -
Period: to
Futuro (2024 en adelante)
2024-2025: Se espera la implementación completa del Reglamento de IA de la UE, que podría convertirse en un estándar global. 2025-2030: Desarrollo de plataformas de gobernanza descentralizadas basadas en blockchain para auditar y rastrear el uso de IA. 2030+: Posible creación de un organismo global de gobernanza de IA, similar a la ONU, para supervisar el desarrollo y uso de la IA a nivel mundial.