Historia de la informática

  • Primera generación

    En 1937 Howard H. Aiken (1900-1973), de la Universidad de Harvard, presentó un proyecto para construir un ordenador y la empresa IBM, prin- cipal contratista del Gobierno americano, lo financió. Finalmente, en 1944, vio la luz el ordenador Mark-I que constaba de 250.000 dispositivos in- terconectados por más de 800 km de cable. Se utilizó para el cálculo de tablas de balística durante el final de la II Guerra Mundial.
  • Segunda generación

    Uno de los mayores hitos de la historia de la electrónica y de la informá- tica tiene lugar en 1947, con la invención del transistor de estado sólido por parte de John Bardeen (1908-1991), William B. Shockley (1910-1989) y Walter H. Brattain (1902-1987), científicos de la empresa Bell Telephone y ganadores por ello del Premio Nobel de Física en 1956. Este dispositivo da lugar a la segunda generación de computadoras.
  • Tercera generación

    En 1959, Jack S. Kilby (1923-2005), investigador de la empresa Texas Ins- truments, fabrica el primer circuito integrado o chip. Un circuito integrado está constituido por un conjunto de transistores fabricados todos ellos en un mismo sustrato, constituyendo el primer paso en la miniaturización de la electrónica.
    En 1965 la compañía IBM saca al mercado el primer ordenador de tercera generación, denominado IBM 360.
  • Cuarta generación

    La cuarta generación de ordenadores se inicia con la inven- ción del microprocesador, que permite alcanzar cotas más altas a la miniaturización.
    El microprocesador constituye el elemento central para el cál- culo y el procesado de la información.
  • Quinta generación

    Las investigaciones actuales en el campo de la informática se encaminan hacia el desarrollo de la quinta generación de orde- nadores, que se caracteriza por:
    La búsqueda de nuevas tecnologías y arquitecturas.
    La utilización del lenguaje natural como medio de comuni- cación con el ordenador, como por ejemplo el reconocimiento de voz.
    La llamada <<inteligencia artificial (IA)», consistente en el desa- rrollo de sistemas expertos capaces de aprender por sí mismos.