0

historia de la informática

  • 2300 BCE

    ábaco

    ábaco
    es una herramienta matemática que se utiliza para realizar cálculos aritméticos, como sumas, restas, multiplicaciones y divisiones. Es uno de los primeros instrumentos de cálculo que se conoce, y su uso se remonta a civilizaciones antiguas como la mesopotámica, egipcia y china. El ábaco tradicionalmente consiste en una serie de varillas o barras sobre las cuales se deslizan cuentas.
  • Creación de la Pascalina

    Creación de la Pascalina
    Blaise Pascal inventa la Pascalina, una de las primeras calculadoras mecánicas. Esta máquina era capaz de sumar y restar, lo que representó un paso importante en la historia del cálculo automático
  • Invención del Telar de Jacquard

    Invención del Telar de Jacquard
    Joseph Marie Jacquard crea el telar de Jacquard, un dispositivo que utilizaba tarjetas perforadas para controlar patrones en el tejido. Esta invención influyó en el diseño de la computación, ya que las tarjetas perforadas serían más tarde utilizadas en las primeras computadoras.
  • La Máquina Analítica de Charles Babbage

    La Máquina Analítica de Charles Babbage
    Charles Babbage presenta el diseño de la máquina analítica, una máquina de cálculo automática que es considerada como el precursor de las computadoras modernas. Aunque nunca fue completada, su concepto de procesamiento programable influyó enormemente en la evolución de la informática.
  • Ada Lovelace escribe el primer algoritmo

    Ada Lovelace escribe el primer algoritmo
    Ada Lovelace, trabajando con Babbage, escribe el primer algoritmo para la máquina analítica. Se la considera la primera programadora de la historia y su trabajo influyó en la idea de que las máquinas pueden ser programadas para realizar cualquier tipo de cálculo.
  • La Segunda Guerra Mundial y el Colossus

    La Segunda Guerra Mundial y el Colossus
    Durante la Segunda Guerra Mundial, Alan Turing y otros científicos británicos desarrollan el Colossus, una de las primeras computadoras electrónicas, utilizada para descifrar códigos secretos alemanes.
  • ENIAC

    ENIAC
    John Presper Eckert y John W. Mauchly crean el ENIAC (Electronic Numerical Integrator and Computer), que es considerada la primera computadora electrónica de propósito general. Este hito marcó el comienzo de la computación electrónica moderna
  • El desarrollo del transistor

    El desarrollo del transistor
    John Bardeen, Walter Brattain y William Shockley inventan el transistor, un dispositivo clave que reemplaza los tubos de vacío en las computadoras. Esto permitió el desarrollo de computadoras más pequeñas, rápidas y eficientes.
  • El nacimiento de los lenguajes de programación

    El nacimiento de los lenguajes de programación
    Fortran (1957) y Lisp (1958) son creados como lenguajes de programación de alto nivel. Esto facilita la programación de las computadoras y permite su uso en diversas disciplinas, más allá de los cálculos matemáticos
  • La creación del UNIVAC I

    La creación del UNIVAC I
    UNIVAC I (Universal Automatic Computer) se convierte en la primera computadora comercial producida en serie. Fue diseñada para aplicaciones comerciales y gubernamentales, y marcó un punto de inflexión en la comercialización de la informática.
  • La creación de la primera tarjeta de circuito impreso (

    La creación de la primera tarjeta de circuito impreso (
    Jack Kilby, un ingeniero de Texas Instruments, inventa el circuito integrado en 1958, pero en 1952 también desarrolló la primera tarjeta de circuito impreso. El circuito impreso es una placa que conecta los componentes electrónicos de una computadora o dispositivo mediante rutas conductoras, lo que permitió miniaturizar la electrónica, reducir costos de fabricación y hacer posible la producción masiva de computadoras y dispositivos electrónicos
  • La creación de ARPANET

    La creación de ARPANET
    ARPANET, desarrollado por el Departamento de Defensa de los EE.UU., es la primera red de computadoras que utiliza el protocolo TCP/IP, lo que establece las bases para la creación de Internet. Es uno de los eventos más importantes en la historia de la informática.
  • Creación del primer teléfono móvil

    Creación del primer teléfono móvil
    Martin Cooper, de Motorola, realiza la primera llamada desde un teléfono móvil. Este evento marca el inicio de la era de los teléfonos móviles, que eventualmente integrarían potentes capacidades de computación en dispositivos portátiles
  • IBM y la primera computadora personal

    IBM y la primera computadora personal
    IBM lanza la IBM PC, la primera computadora personal que utiliza el estándar de hardware abierto. Este evento populariza la informática personal y establece la base para la industria de las computadoras personales que crecería en las décadas siguientes.
  • El lanzamiento de la primera versión de Windows

    El lanzamiento de la primera versión de Windows
    Microsoft lanza Windows 1.0, una interfaz gráfica que revolucionaría el uso de las computadoras personales. Windows se convirtió en uno de los sistemas operativos más populares del mundo.
  • La invención de la World Wide Web

    La invención de la World Wide Web
    Tim Berners-Lee, un científico británico, inventa la World Wide Web (WWW), utilizando un sistema de hipertexto para conectar información en Internet, lo que revoluciona la forma en que las personas acceden y comparten datos en la red global
  • La popularización de las redes sociales

    La popularización de las redes sociales
    Plataformas como Facebook, Twitter y YouTube transforman la forma en que las personas interactúan, comparten información y se conectan globalmente a través de Internet
  • El iPhone y la era de los smartphones

    El iPhone y la era de los smartphones
    Apple lanza el iPhone, un dispositivo que combina teléfono móvil, computadora y otros dispositivos electrónicos en un solo aparato. Esto inicia la revolución de los smartphones y cambia el panorama de la informática móvil y de la comunicación global
  • La inteligencia artificial y el aprendizaje automático

    La inteligencia artificial y el aprendizaje automático
    Los avances en inteligencia artificial (IA) y aprendizaje automático se convierten en una parte clave de la informática moderna, con aplicaciones en campos como la automoción (vehículos autónomos), la medicina, la predicción de datos y el análisis de grandes volúmenes de información.
  • El auge de la computación cuántica

    El auge de la computación cuántica
    Google, IBM y otras empresas comienzan a hacer avances significativos en la computación cuántica, una nueva forma de computación que promete resolver problemas mucho más rápido que las computadoras tradicionales, especialmente en campos como la criptografía y la simulación molecular.