-
Period: to
La historia de la Informatica
La humanidad ha desarrollado métodos para calcular, almacenar y transmitir información, buscando siempre facilitar su vida diaria a lo largo de la historia. -
Period: to
1.Primera generación
Las primeras máquinas usaban relés electromagnéticos, pero se descubrió el potencial de las válvulas electrónicas. En 1937, Howard H. Aiken propuso un ordenador, financiado por IBM, que culminó en 1944 con el Mark-I, compuesto por 250.000 dispositivos y 800 km de cable. La II Guerra Mundial impulsó el desarrollo de ordenadores. -
Period: to
2. Segunda generación
Resumen
En 1947, John Bardeen, William B. Shockley y Walter H. Brattain inventaron el transistor de estado sólido, un hito en la electrónica y la informática. Este avance llevó a la segunda generación de computadoras, que surgieron en los años 50, utilizando transistores y otros componentes discretos para crear circuitos lógicos, transformando la tecnología de la información y la comunicación. -
Period: to
3. Tercera generación
En 1959, Jack S. Kilby (1923-2005), investigador de la empresa Texas Ins- truments, fabrica el primer circuito integrado o chip. Un circuito integrado está constituido por un conjunto de transistores fabricados todos ellos en un mismo sustrato, constituyendo el primer paso en la miniaturización de la electrónica.
En 1965 la compañía IBM saca al mercado el primer ordenador de tercera generación, denominado IBM 360. -
Period: to
4. Cuarta generación
La cuarta generación de ordenadores se inicia con la inven- ción del microprocesador, que permite alcanzar cotas más altas a la miniaturización.
El microprocesador constituye el elemento central para el cál- culo y el procesado de la información.
El IBM 360 permitía la compatibilidad con otros equipos de su misma serie. -
Period: to
5. Quinta generación
Las investigaciones actuales en el campo de la informática se encaminan hacia el desarrollo de la quinta generación de orde- nadores, que se caracteriza por:
La búsqueda de nuevas tecnologías y arquitecturas.
La utilización del lenguaje natural como medio de comuni- cación con el ordenador, como por ejemplo el reconocimiento de voz.
La llamada <<inteligencia artificial (IA)», consistente en el desa- rrollo de sistemas expertos capaces de aprender por sí mismos.