Image

Hitos de la arquitectura de computadoras

  • Invención de la máquina de Turing

    Invención de la máquina de Turing
    Es un modelo matemático que representa una computadora idealizada con capacidad para ejecutar cualquier algoritmo.
    Este invento nos proporcionó tanto avance en la informática y criptografía, haciendo que los aliados lograran desencriptar los mensajes de los nazis en la segunda guerra mundial y asi, impedir y prevenir movimientos de estos mismos. Esta maquina fue creada en el año 1936 por el científico Alan Turing, el cual gracias a su aportación, se le conoció como “El padre de la informática”.
  • Primera generación: ENIAC y tubos de vació

    Primera generación: ENIAC y tubos de vació
    La ENIAC (Computador e Integrador Numérico Electrónico) se ha considerado históricamente, como la primera computadora de propósito general, fue creada en 1946, aunque el título le pertenece en realidad a la computadora alemana Z1. Además, guarda una estrecha relación con la computadora COLOSSUS, que se usó para descifrar mensajes en código de los alemanes, generados por la máquina ENIGMA durante la Segunda Guerra Mundial (Maquina de Turing).
  • Segunda Generación: El Transistor

    Segunda Generación: El Transistor
    En 1947, John Bardeen, Walter Brattain y William Shockley, de Bell Labs, desarrollaron el transistor: el primer semiconductor de estado sólido, La creación del transistor no solo contribuyó a la mejora de la telefonía. Permitió la computación digital y su impacto en la sociedad es “difícil de sobreestimar”. En la actualidad, este pequeño instrumento es tan relevante, que nos permite tener computadoras a todos, desde dispositivos móviles hasta PCs en nuestro hogares.
  • Lenguaje Ensamblador

    Lenguaje Ensamblador
    La inclusión de lenguajes de este tipo para poder interactuar con las primeras computadoras fue crucial para el control de estas mismas, creados en el año 1950, actúan como intermediarios entre el lenguaje maquina y lenguajes de alto nivel. Los lenguajes ensambladores eliminaron mucha de la propensión a errores y del consumo de tiempo de la programación de los lenguajes de primera generación, liberando a los programadores del tedio tal como recordar códigos numéricos y cálculo de direcciones.
  • Desarrollo del sistema operativo UNIX

    Desarrollo del sistema operativo UNIX
    Unix es un sistema operativo poderoso, multitarea y multiusuario que fue desarrollado en 1969 por Ken Thompson, Dennis Ritchie y otros en los Laboratorios Bell de AT&T. Originalmente fue escrito en lenguaje ensamblador, pero en 1973 fue reescrito en C por Dennis Ritchie. Este cambio marcó un hito importante, ya que permitió que el sistema operativo pudiera ser portado y adaptado más fácilmente para funcionar en diferentes tipos de máquinas.
  • Tercera y Cuarta generación: Circuitos integrados y primer microprocesador (Intel 4004)

    Tercera y Cuarta generación: Circuitos integrados y primer microprocesador (Intel 4004)
    De 1964 y hasta 1971 el mercado fue dominado por la tercera generación de computadoras gracias a la incorporación de los circuitos integrados que sustituyeron a los transistores. No fue hasta 1971 que Intel lanzaría el Intel 4004, el primer microprocesador de uso general, demostró que era posible construir circuitos integrados complejos y meterlos en un chip del tamaño de una uña. Su invención estableció una nueva metodología de diseño lógico, en la que se basarían las siguientes generaciones.
  • Apple dos

    Apple dos
    El Apple II fue lanzado en junio de 1977 por Apple Inc., como la creación visionaria de Steve Jobs y Steve Wozniak. El Apple II fue el primer computador personal dirigido a un público masivo, sumamente fácil de usar.
    Este computador permitió que más personas pudieran acceder a las computadoras y descubrir su potencial, llevando a la computadora no solo como un instrumento científico y exclusivo, si no como una herramienta que todo mundo puede usar y tener en su casa.
  • Quinta generación: Procesadores multinúcleo

    Quinta generación: Procesadores multinúcleo
    El primer procesador multinúcleo fue el IBM POWER4 con dos núcleos en un solo DIE y una frecuencia base de 1,1 GHz, fabricándose en el año 2001. No fue hasta 2005 cuando surgieron los procesadores Dual Core para consumo por usuarios en sus ordenadores de escritorio.
    Tras esto, los fabricantes comenzaron a introducir núcleos de forma indiscriminada, con la miniaturización de los transistores. Actualmente los procesadores de uso general llegan a tener hasta 16 núcleos.
  • Computación en la nube

    Computación en la nube
    En 2007, se popularizó la ideología del cloud computing debido al rápido desarrollo de los canales de comunicación y a la necesidad exponencialmente creciente de escalar horizontalmente sus sistemas de información.
    Gracias a sestas tecnologías, es que actualmente podemos tener almacenamiento de manera segura mediante la nube e incluso simulación remota en nuestras computadoras, incluso servicios multimedia como lo son las bases de datos, servicios de streaming, y redes sociales.
  • IA y Computación cuántica

    IA y Computación cuántica
    Estas tecnologías son bastante actuales a pesar de ser ideadas desde los años 80s, con los avances de la miniaturización, se han ido desarrollando plenamente hasta tener lo que conocemos hoy en día. Hoy en día, la IA se compone de un conjunto de conocimientos que, aunado a un entrenamiento previo, permite arrojar un resultado. Si bien esto es un logro bastante impresionante, el objetivo actual es mucho más ambicioso. Por el lado de la computación cuántica, se esperan mejoras a niveles abismales.