-
3800 BCE
Tablillas de arcilla Babilonicas
El cuneiforme es un sistema de escritura desarrollado por primera vez por los antiguos sumerios en Mesopotamia c. 3500-3000 a.C. como apoyo a las diversas actividades económicas en ciudades cada vez más pujantes. -
3000 BCE
Primeros censos en Egipto y Mesopotamia.
En Egipto, año 2500 a.C., se hizo un censo con el fin de evaluar la población activa disponible con miras a la construcción de las pirámides. - En Israel, año 1491 a.C., se realizó un censo para contabilizar las personas aptas para el servicio militar y conocer su capacidad contributiva. -
2000 BCE
Registros estadísticos en China sobre población y producción agrícola.
China llevó a cabo el primer censo de población, China es considerado el único país de las antiguas civilizaciones que ha conservado hasta hoy los datos concretos de registro de la población. -
500 BCE
Censos en la Antigua Grecia y Roma.
Los censos romanos no solo contaban a las personas, sino que también registraban información detallada sobre la riqueza, la propiedad, la edad y el estatus social. Estos datos eran esenciales para la recaudación de impuestos, la asignación de recursos y la planificación de infraestructuras. -
384 BCE
Aristóteles - Usó el término "estadística" para referirse al estudio del estado.
Aristóteles, filósofo griego antiguo, no desarrolló la estadística como disciplina, pero sí hizo contribuciones a la probabilidad y al pensamiento estadístico, definió la probabilidad como algo que se considera plausible, es decir, que parece bueno a la mayoría de las personas. Este concepto de probabilidad se mantuvo en la Edad Media. -
1086
Publicación del Domesday Book en Inglaterra, un censo detallado de tierras y bienes.
el libro era más que un simple registro fiscal. Proporcionaba un registro detallado de todas las tierras en posesión del rey y sus arrendatarios y de los recursos que iban con esas tierras. Registraba qué señoríos pertenecían legítimamente a qué propiedades y también era una declaración feudal . Revelaba las identidades de los terratenientes , que poseían sus tierras directamente de la Corona, y de sus arrendatarios y subarrendatarios. -
John Graunt - libro "Natural and Political Observations Made upon the Bills of Mortality"
Este libro es considerado el inicio de la demografía, la ciencia que estudia las poblaciones humanas.
Graunt fue un estadístico inglés que analizó los registros de defunciones y bautismos de la ciudad de Londres. A partir de estos datos, pudo hacer estimaciones sobre la población, las tasas de natalidad y mortalidad, y la propagación de enfermedades. -
Publicación póstuma de Ars Conjectandi de Jacob Bernoulli, estableciendo el Teorema de los Grandes Números.
el libro Ars Conjectandi de Jacob Bernoulli fue publicado en 1713 y en él se estableció la ley de los grandes números, La ley de los grandes números establece que el promedio de los resultados de un gran número de muestras aleatorias independientes se aproxima a la media teórica. Jacob Bernoulli (1654-1705) fue un matemático suizo que realizó importantes contribuciones a la estadística y a otras ramas de las matemática -
Gottfried Achenwall Termino de la estadistica
fue la persona que acuñó el término estadística. Achenwall pensaba que la Estadística como ciencia de recopilación y análisis de datos eran una herramienta muy útil y poderosa para los políticos y gobernantes de una nación. -
Thomas Bayes desarrolla el Teorema de Bayes, base de la estadística bayesiana.
El teorema de Bayes es una herramienta matemática usada para calcular la probabilidad de que un evento ocurra dado otro evento. Esto se hace a través del cálculo de la probabilidad de que una cosa ocurra dada la otra cosa, lo cual se conoce como probabilidad condicional. -
Militar Britanico John sinclair y la estadistica
No fue hasta el siglo XIX cuando el término estadística adquirió el significado de recolectar y clasificar datos. Este concepto fue introducido por el militar británico Sir John Sinclair -
Karl Pearson desarrolla el coeficiente de correlación y el test de chi-cuadrado.
El coeficiente de correlación de Pearson es una prueba que mide la relación estadística entre dos variables continuas. Si la asociación entre los elementos no es lineal, entonces el coeficiente no se encuentra representado adecuadamente. El coeficiente de correlación puede tomar un rango de valores de +1 a -1. -
Karl Pearson - Fundó la revista "Biometrika" en 1901 y desarrolló el coeficiente de correlación
Karl Pearson (1857-1936) fue un matemático y estadístico inglés que fundó la revista Biometrika en 1901 y desarrolló el coeficiente de correlación de Pearson.
Pearson es considerado uno de los padres de la estadística moderna. Sus aportaciones fueron importantes en la antropología, la biométrica, la genética, la teoría estadística y el método científico -
William Sealy Gosset (bajo el seudónimo "Student") introduce la distribución t de Student.
William Sealy Gosset (1876-1937) introdujo la distribución t de Student en 1908. Gosset era un estadístico, químico y cervecero inglés que trabajaba en la fábrica Guinness. La distribución t de Student es una herramienta estadística que se utiliza para comparar las medias de dos grupos y determinar si son significativamente diferentes. -
Ronald A. Fisher desarrolla el análisis de varianza (ANOVA).
Ronald Aylmer Fisher (1890-1962) fue un científico inglés que realizó grandes aportaciones a la estadística, la genética y la biología evolutiva, creó el ANOVA en 1921 para determinar la significación estadística de las diferencias entre medias -
Walter A. Shewhart Control economico de calidad
Shewhart concluyó que mientras cada proceso muestra una variación, algunos procesos muestran variaciones controladas naturales dentro del proceso (causas comunes de variación), mientras otros muestran variaciones descontroladas que no están siempre presentes en el proceso causal. -
Frank Yates
En 1933 se convirtió en el jefe del departamento estadístico tras la partida de Fisher. En Rothamsted trabajó en diseño experimental, realizó contribuciones a la teoría del análisis de la varianza y concibió su algoritmo para los diseños por bloques equilibrados incompletos.Durante la Segunda Guerra Mundial trabajó en la disciplina que más tarde recibiría el nombre de investigación operativa. -
Introducción de la regresión lineal y no lineal
La regresión no lineal es una técnica estadística que ayuda a describir relaciones no lineales en datos experimentales . Por lo general, se supone que los modelos de regresión no lineal son paramétricos, y el modelo se describe como una ecuación no lineal. Por lo general, se utilizan métodos de aprendizaje automático para la regresión no lineal no paramétrica. -
George Edward Pelham Box - Estadístico
Fue reconocido por sus contribuciones al diseño experimental, la robustez, los métodos bayesianos y el análisis de series temporales . Box se desempeñó como presidente de la ASA y del Instituto de Estadística Matemática en períodos consecutivos -
Frank Wilcoxon Químico y estadístico
Pruebas de rango, comparaciones multiples rangos secuenciles y experiemntos factoriales, La prueba de los rangos con signo de Wilcoxon es una prueba no paramétrica para comparar el rango medio de dos muestras relacionadas y determinar si existen diferencias entre ellas. Se utiliza como alternativa a la prueba t de Student cuando no se puede suponer la normalidad de dichas muestra -
Harold Hotelling Matemático y estadístico estadounidense
Hotelling (1895-1973) fue un matemático estadounidense que participó en el movimiento de principios del siglo XX para matematizar la economía, influyente estadístico matemático y profesor, uso de pruebas de hipotesis y de confianza La teoría de Hotelling, o regla de Hotelling, postula que los propietarios de recursos no renovables sólo producirán productos básicos si al hacerlo pueden obtener más de lo que podrían obtener de los instrumentos financieros disponibles -
john Tukey presenta el boxplot y populariza el uso de gráficos estadísticos.
El diagrama de caja fue creado por Tukey como herramienta en el análisis exploratorio de datos y se utiliza para resumir y comparar distribuciones en función de sus valores extremos, la mediana y los cuartiles, método estandarizado para representar gráficamente una serie de datos numéricos a través de sus cuartiles. De esta manera, se muestran a simple vista la mediana y los cuartiles de los datos, y también pueden representarse sus valores atípicos -
William Gemmell Cochran Estadístic
diseño de experimentos y teoria del nuestreo, trabajos publicos sobre interpretacion de analisis de varianza y coovarianza aplicados a agricultura y biologia. -
Jerzy Neyman Matemático y estadístico
matemático y estadístico polaco que, trabajando en ruso, polaco y luego inglés, ayudó a establecer la teoría estadística de Prueba de hipótesis . Neyman fue uno de los principales fundadores de la teoría moderna. Estadística -
Auge de la minería de datos y aprendizaje automático.
El proceso de escarbar en los datos para descubrir conexiones ocultas y predecir tendencias futuras tiene una larga historia. A veces denominado "knowledge discovery in databases," el término "data mining" no se acuñó hasta la década de 1990, La minería de datos es el uso del aprendizaje automático y el análisis estadístico para descubrir patrones y otra información valiosa a partir de grandes conjuntos de datos -
Se introduce el término Big Data.
Big data son datos que contienen una mayor variedad y que se presentan en volúmenes crecientes y a una velocidad superior. Esto se conoce como «las tres V»: Volumen, El big data permite a las organizaciones crear perfiles de clientes mediante una combinación de datos de ventas de clientes, datos demográficos del sector y datos relacionados, como la actividad de las redes sociales y la participación en campañas de marketing -
Expansión del aprendizaje profundo (deep learning) en modelos estadísticos.
Los algoritmos de aprendizaje automático, incluidos los de aprendizaje profundo, suelen tener su origen en conceptos estadísticos . Evolucionan adaptando principios estadísticos para abordar problemas complejos y hacer predicciones basadas en datos, -
Crecimiento de la estadística bayesiana en inteligencia artificial.
Teorema de Bayes en inteligencia artificial. El teorema de Bayes en IA es quizás la base más fundamental de la probabilidad y la estadística, más conocido popularmente como la regla de Bayes o la ley de Bayes. Nos permite revisar nuestras suposiciones o la probabilidad de que ocurra un evento, dada nueva información o evidencia. -
machine learning (ML) Aplicaciones avanzadas de modelos estadísticos en ciencia de dato
El machine learning (ML) es una de las muchas otras ramas de la IA. Desarrollo de algoritmos y modelos estadísticos que los sistemas informáticos utilizan para realizar tareas complejas sin instrucciones explícitas. se basa en el desarrollo de algoritmos y modelos estadísticos que permiten a las computadoras identificar patrones en datos masivos. De esta forma, los sistemas pueden generar resultados con mayor precisión a partir de un conjunto de datos de entrada. -
Como ha evolucionado la estadistica.
La estadística surgió en épocas muy remotas, como todas las ciencias, no surgió de improviso sino mediante un proceso largo de desarrollo y evolución, desde hechos de simple recolección de datos hasta la diversidad y rigurosa interpretación de los datos que se dan hoy en día. -
Estadistica en la actualidad
La estadística es una ciencia que se aplica en muchas áreas de la vida cotidiana y profesional. Se utiliza para describir y predecir fenómenos, y para procesar información. Nos posibilita cuantificar la realidad y disponer de los elementos que nos permitan su análisis. La base de las actuaciones políticas y administrativas es el estudio de los datos estadísticos, porque conocer la realidad nos permite actuar de una forma más coherente (con conocimiento de causa)