-
John Graunt y el nacimiento de la estadìstica
Desarrolla la estadìstica demográfica con su libro Natural and Political Observations Made upon the Bills of Mortality. Graunt es considerado uno de los primeros en aplicar mètodos cuantitativos al estudio de poblaciones, creo una de las primeras tablas de vida, que permitìan estimar la esperanza de vida en diferentes edades. -
Thomas Bayes y el fundamento de la probabilidad condicional
formula el teorema de bayes clave en la inferencia de datos, El teorema que lleva su nombre se refiere a la probabilidad de un suceso condicionado por la ocurrencia de otro suceso. Más específicamente, con su teorema se resuelve el problema conocido como «de la probabilidad inversa». Su teorema es usado hoy en inteligencia artificial, medicina, economìa, ingenierìa y mas. -
Carl Friedrich Gauss: Precisiòn y predicciòn en el analisis de datos.
Carl Friedrich Gauss, introdujo la distribuciòn normal y el metodo minimos cuadraticos, utilizado en ingenierìa para ajustar datos, estudio como los errores de medicion se distribuyen y como correguirlos para mejorar la precisiòn en calculos cientificos. -
Hermann Hollerith: Una aproximacion històrica al nacimiento del procesamiento automatizado de los datos.
Hermann Hollerith, revolucionó el análisis de datos en 1885 al desarrollar una máquina tabuladora basada en tarjetas perforadas, inspirada en los telares de Jacquard. Su invento surgió como respuesta a la necesidad de agilizar el procesamiento del censo de EE.UU., que en 1880 había tomado casi ocho años en completarse manualmente. La máquina de Hollerith permitía registrar, clasificar y contar información de manera automatizada mediante un sistema de agujas y circuitos eléctricos. -
Automatizaciòn del censo estadounidense con la maquina tabuladora de Hollerith
La máquina tabuladora de Hermann Hollerith se utilizó para procesar el Censo de Estados Unidos, reduciendo el tiempo de análisis de casi 8 años a solo 2 años. Este avance permitió ahorrar tiempo y costos significativos, demostrando el potencial de la automatización en el manejo de grandes volúmenes de datos y sentando las bases para el desarrollo de la computación moderna, lo que eventualmente condujo a la fundación de la empresa que se transformaría en IBM. -
Estimaciones Demogràficas: Recuperaciòn y Analisis de Microdatos del Censo
.En 1930, se realizaron estimaciones de la población mexicana utilizando una muestra de los microdatos del Quinto Censo de Población. Estos datos fueron recuperados mediante el proyecto Muestreo probabilístico para la recuperación de los microdatos del censo general, financiado por el Fondo Sectorial CONACYT-INEGI. El objetivo fue analizar la información censal con técnicas de muestreo probabilístico para comprender mejor la estructura demográfica y socioeconómica del país. -
Turing y Good
Realizan una máquina capaz de analizar documentos cifrados por los alemanes usando la máquina enigma en la Segunda Guerra Mundial, de tal forma que era capaz de descifrar la clave con la que habían sido cifrados. Y en ese mismo año se realiza una máquina, el Predictor de Kerrison, capaz de automatizar la defensa antiaérea apuntando contra aviones enemigos.
Ver el analisis de la pelìcula basada en la maquina turing:
https://faridieck.com/collections/libros -
El proyecto ENIAC
El ENIAC(Computador e Integrador Numérico Electrónico), originalmente conocido como “Proyecto PX”, se diseñó y construyó entre 1943 y 1945 en la escuela Moore, de la Universidad de Pensilvania. En él trabajaron John Mauchly y John Presper Eckert, junto a un equipo de ingenieros que incluía a Robert F. La primera computadora electronica de proposito general, permitiendo calculos mas rapidos en ingenieria estructural y militar. -
Proyecto Manhattan
El Proyecto Manhattan usó computadoras para analizar y predecir el comportamiento de reacciones nucleares en cadena, ayudando en el desarrollo de la bomba atómica. -
Comercializaciòn de la analitica en la predicciòn meterològica
Se introduce la comercialización de la analítica con el desarrollo del primer modelo de predicción meteorológica basado en el análisis de datos, permitiendo prever el clima con mayor precisión y sentando las bases para futuras aplicaciones en diversas industrias. -
UNIVAC I
En 1951, se lanzó la UNIVAC I (Universal Automatic Computer I), la primera computadora comercial de propósito general, desarrollada por J. Presper Eckert y John Mauchly.
Esta máquina, que ocupaba una sala entera y pesaba 13 toneladas, revolucionó el análisis de datos al reemplazar las tarjetas perforadas por cintas magnéticas, aumentando la velocidad y capacidad de almacenamiento. -
Tres primeros lenguajes de programacion
Los tres primeros lenguajes de programación modernos, cuyos descendientes aún continúan siendo utilizados, son: FORTRAN (1957) ingenieria y calculos cientificos, creado por John Backus.
LISP (1958)fue diseñado para manipulacion simbolica y inteligencia artificial, creado por John McCarthy.
COBOL (1959) diseñaddo para gestion de datos en empresas, bancos y gobiernos, creado por Grace Hopper durante su participación en el Short Range Committee.