-
Primera computadora electrónica
En la década de 1940.Se desarrollan las primeras computadoras electrónicas, como la ENIAC y la UNIVAC I, que ocupaban salas enteras y eran utilizadas principalmente para cálculos científicos y militares. -
Llegada de los transistores y el lenguaje de programación.
En la decada de 1950. Surge la idea de programación con lenguajes de alto nivel, como el FORTRAN. Las computadoras comienzan a utilizar transistores en lugar de tubos de vacío, lo que reduce su tamaño y aumenta su eficiencia. -
Llegada de las minicomputadoras y el concepto de mutiprogramación
en la década de 1960. Se introdujeron las minicomputadoras, más pequeñas y mayores que las computadoras principales. Se desarrolla el concepto de multiprogramación, que permite a una computadora ejecutar múltiples tareas a la vez. -
Microcomputadoras y microprocesadores
En la decada de 1970. Aparecen las microcomputadoras, como el Altair 8800. Se desarrollan los primeros microprocesadores, como el Intel 4004 y el 8080, sentando las bases para las computadoras personales. -
La llegada de las computadoras personales
En la decada de 1980. Se popularizan las computadoras personales (PC) gracias a modelos como la IBM PC. Se lanzan sistemas operativos como MS-DOS y Apple lanza la Macintosh, que populariza la interfaz gráfica. -
El aporte de Microsoft
En la decada de 1990. Aumenta la velocidad y capacidad de procesamiento de las computadoras. Se populariza el uso de internet y la World Wide Web. Microsoft lanza Windows 95, que introduce características clave en las interfaces gráficas. -
Smart-time
En la decada del 2000. Las computadoras se vuelven más compactas y potentes. Se desarrollan laptops y dispositivos móviles como smartphones y tabletas. Surge la computación en la nube. -
Llegada de las IA
En la decada de 2010. El enfoque se traslada hacia la movilidad y la conectividad. Se desarrolla tecnologías de realidad virtual y aumentada. Aumenta el interés en la inteligencia artificial y el aprendizaje automático. -
LA MODERNIDAD
De 2020 a la actualidad. La computación cuántica comienza a desarrollarse, prometiendo un procesamiento significativamente más rápido en ciertos casos. La inteligencia artificial y el aprendizaje automático siguen avanzando en una variedad de campos.