Imagen titulo linea tiempo

Historia de la Estadística.

  • 4500 BCE

    Recaudación de impuestos en la antigua Mesopotamia

    Recaudación de impuestos en la antigua Mesopotamia
    En la antigua Mesopotamia, que abarcaba la región de los ríos Tigris y Éufrates (actualmente parte de Irak), se desarrollaron algunas de las primeras formas de gobierno centralizado y administración tributaria. Los gobiernos mesopotámicos, como el imperio sumerio, el imperio acadio y el imperio babilónico, establecieron sistemas de recaudación de impuestos para financiar actividades gubernamentales y proyectos de infraestructura.
  • 3800 BCE

    Primer censo en la antigua Mesopotamia.

     Primer censo en la antigua Mesopotamia.
    El primer censo documentado en la historia se llevó a cabo en la antigua Mesopotamia, una región que corresponde en gran parte a los actuales territorios de Irak y partes de Siria, Irán y Turquía. Este censo ocurrió alrededor del 3800 a.C. y fue realizado por los sumerios, una de las civilizaciones más antiguas del mundo.
  • 3500 BCE

    Sumerios desarrollan métodos de registro de bienes.

     Sumerios desarrollan métodos de registro de bienes.
    Los sumerios desarrollan métodos de registro de bienes.
  • 3050 BCE

    Egipto primer dato estadistico.

    Egipto primer dato estadistico.
    Los comienzos de la estadística pueden ser hallados en el antiguo Egipto, quienes faraones lograron recopilar, hacia el año 3050 AC, los primeros datos estadísticos, relativos a la población y la riqueza del país, con miras a construir las pirámides.
  • 3000 BCE

    Babilonia tablillas.

    Babilonia tablillas.
    Hacia el año 3.000 a.C. los babilonios usaban ya pequeñas tablillas de arcilla para recopilar datos en tablas sobre la producción agrícola y los géneros vendidos o cambiados mediante trueque. Los egipcios ya analizaban los datos de la población y la renta del país mucho antes de construir la pirámides
  • 3000 BCE

    Las muescas de Cerdeña.

    Las muescas de Cerdeña.
    El origen de la estadística empieza posiblemente en la isla de Cerdeña, donde existen monumentos como muescas que servían para llevar la cuenta del ganado y la caza.
  • 2357 BCE

    El libro chino (Chu-kiog)

    El libro chino (Chu-kiog)
    El emperador Yao recopilaba información sobre su población para mantener el orden en su nación.
  • 1300 BCE

    Censo que realizo Moisés después de la salida de Egipto.

    Censo que realizo Moisés después de la salida de Egipto.
    En la Biblia también podemos encontrar referencias estadísticas. Así por ejemplo, en uno de los libros del Pentateuco, bajo el nombre de Números, puede leerse lo que podría interpretarse como el censo que realizó Moisés después de la salida de Egipto.
  • 1300 BCE

    Tributo a los mayores de 20 años que se ,menciona en la biblia.

    Tributo a los mayores de 20 años que se ,menciona en la biblia.
    Estos 5 gramos de plata son una ofrenda al SEÑOR. Lo pagará toda persona mayor de 20 años que sea censada. Ni el rico pagará más de 5 gramos de plata ni el pobre pagará menos. Este pago será una ofrenda al SEÑOR para pagar por su vida.
  • 509 BCE

    El censo quinquenal del imperio Romano.

    El censo quinquenal  del imperio Romano.
    En el imperio Romano se realizaba un censo cada 5 años, para tener la información de sus pobladores y las riquezas conquistadas.
  • 476

    Edad media, censo de los feudos.

    Edad media, censo de los feudos.
    Durante la edad media no se realizaron estadísticas importantes, únicamente las que realizaban los señores feudales a sus siervos para cobrar los tributos..
  • 762

    Censo Apostólogico.

    Censo Apostólogico.
    Carlo Magno ordeno el primer censo de las propiedades y riquezas de la iglesia con el fin de salvar y engrandecer el poder de la Iglesia.
  • 1086

    Domesday Book.

    Domesday Book.
    Guillermo I ordena el primer censo después de la conquista Normanda de Inglaterra, los datos son recopilados en el libro Domesday Book.
  • Inicio registro de nacimientos.

    Inicio registro de nacimientos.
    En Inglaterra en el siglo 16 se inicia el registro de nacimientos y defunciones.
  • Nacimiento calculo de probabilidades.

    Nacimiento calculo de probabilidades.
    Blaise Pascal y Pierre de Fermat, resolvieron unos problemas de azar contribuyendo al nacimiento del calculo de probabilidades.
  • Primer gráfico de barras.

     Primer gráfico de barras.
    William Playfair crea el primer gráfico de barras.
  • Inicios de la demografía.

    Inicios de la demografía.
    John Graunt publica "Natural and Political Observations Made upon the Bills of Mortality", precursor de la demografía.
  • Carl Friedrich Gauss desarrolla la distribución normal.

    Carl Friedrich Gauss desarrolla la distribución normal.
    Carl Friedrich Gauss desarrolla la distribución normal.
  • Introducción del índice de masa corporal (IMC)

    Introducción del índice de masa corporal (IMC)
    Adolphe Quetelet introduce el índice de masa corporal (IMC).
  • Desarrollo de la regresión lineal.

    Desarrollo de la regresión lineal.
    Francis Galton acuña el término "regresión" y desarrolla la regresión lineal.
  • Aplicación de la estadística a la epidemiología.

    Aplicación de la estadística a la epidemiología.
    Sir William Farr aplica estadísticas a la epidemiología.
  • La higiene en hospitales.

     La higiene en hospitales.
    Ignaz Semmelweis utiliza estadísticas para mejorar la higiene en hospitales.
  • Estableciendo la epidemiología moderna.

    Estableciendo  la epidemiología moderna.
    1854: John Snow mapea un brote de cólera en Londres, estableciendo la epidemiología moderna.
  • Se acuña el término "correlación".

    Se acuña el término "correlación".
    Francis Galton acuña el término "correlación".
  • Regresión hacia la media.

    Regresión hacia la media.
    Francis Galton introduce el concepto de regresión hacia la media.
  • El coeficiente de correlación.

    El coeficiente de correlación.
    Karl Pearson formula el coeficiente de correlación.
  • Fundamentos de la probabilidad.

    Fundamentos de la probabilidad.
    David Hilbert presenta sus 23 problemas, que incluyen 1900: David Hilbert presenta sus 23 problemas, que incluyen fundamentos de la probabilidad.
  • Generalización del método científico.

    Generalización del método científico.
    Con la generalización del método científico, los investigadores aceptaron la necesidad de reducir la información a valores numéricos para reducir la ambigüedad de las descripciones verbales.
  • Chi-cuadrado

    Chi-cuadrado
    En 1904, Karl Pearson introdujo la distribución chi-cuadrado en estadísticas. La distribución chi-cuadrado es una distribución de probabilidad que se utiliza en inferencia estadística para analizar datos que siguen una distribución normal y para realizar pruebas de hipótesis sobre la varianza de una población.
  • La distribución de Fisher y el análisis de varianza.

    La distribución de Fisher y el análisis de varianza.
    Ronald A. Fisher desarrolla la distribución de Fisher y el análisis de varianza. El análisis de varianza, una técnica estadística que compara las medias de varios grupos
  • El principio de verosimilitud.

    El principio de verosimilitud.
    Ronald A. Fisher formula el principio de verosimilitud.
    Aquí es donde nace el principio de verosimilitud que toda obra de ficción debe cumplir: el espectador debe creer que todos los hechos que aparecen en la obra ficcionada tienen coherencia dentro del universo que se representa.
  • Desarrollo de las pruebas de hipótesis.

    Desarrollo de las pruebas de hipótesis.
    Jerzy Neyman y Egon Pearson desarrollan las pruebas de hipótesis. Este enfoque proporciona un marco para tomar decisiones basadas en evidencia estadística al evaluar afirmaciones sobre parámetros poblacionales.
  • Las bases de la teoría de la información.

    Las bases de la teoría de la información.
    1948: Claude Shannon establece las bases de la teoría de la información. Shannon intentaba pensar sobre cómo transmitir mensajes y cómo impedir que se convirtieran en ilegibles entre el ruido.
  • Desarrollo de la prueba de rango con signos.

    Desarrollo de la prueba de rango con signos.
    1950: Maurice Kendall y Bernard Babington Smith desarrollan la prueba de rango con signos. Esta prueba es una técnica estadística no paramétrica utilizada para determinar si dos muestras independientes provienen de la misma población o si presentan diferencias significativas entre ellas.
  • "software".

     "software".
    En 1960, John Tukey introdujo el término "software" para referirse a los programas y datos que son utilizados por las computadoras.
  • "análisis exploratorio de datos"

    "análisis exploratorio de datos"
    En 1965, el estadístico John Tukey acuñó el término "análisis exploratorio de datos" (EDA, por sus siglas en inglés), que se refiere a un enfoque en la estadística para analizar conjuntos de datos con el propósito de resaltar patrones, detectar valores atípicos, identificar relaciones entre variables y generar hipótesis.
  • Desarrollan la regresión lineal generalizada.

    Desarrollan la regresión lineal generalizada.
    En 1969, John Nelder y Robert Wedderburn desarrollaron el concepto de regresión lineal generalizada (GLM por sus siglas en inglés). La regresión lineal generalizada es una extensión del modelo de regresión lineal tradicional que permite abordar una variedad más amplia de situaciones, incluyendo respuestas que no siguen una distribución normal y relaciones no lineales entre variables
  • El método bootstrap.

    El método bootstrap.
    En 1972, Bradley Efron propuso el método de remuestreo conocido como "bootstrap". El método bootstrap es una técnica estadística que se utiliza para estimar la distribución de una estadística de interés mediante la generación de múltiples muestras de datos a partir de la muestra original.
  • "fractal".

     "fractal".
    En 1974, el matemático Benoît Mandelbrot acuñó el término "fractal" para describir estructuras geométricas complejas y autosimilares que pueden ser fragmentadas en partes más pequeñas, cada una de las cuales es una copia reducida del todo.
  • Desarrollo de los modelos ARIMA

     Desarrollo de  los modelos ARIMA
    En 1977, George Box y Gwilym Jenkins desarrollaron los modelos ARIMA para el análisis de series temporales. ARIMA significa "Autoregressive Integrated Moving Average" por sus siglas en inglés, y se refiere a un enfoque que combina componentes de autoregresión, promedio móvil e integración para modelar y predecir patrones en datos de series temporales.
  • La estadística computacional.

    La estadística computacional.
    1986: John Dearden y Colin Chatfield introducen la estadística computacional. La estadística computacional se refiere al uso de técnicas y métodos computacionales para analizar y comprender datos, lo que permite realizar análisis más complejos y detallados que los enfoques tradicionales.
  • Desarrollo del método LASSO

    Desarrollo del método LASSO
    En 1990, John W. Tukey y Xiaotong Shen no desarrollaron el método LASSO de selección de variables. El método LASSO (Least Absolute Shrinkage and Selection Operator, en español "Operador de Encogimiento y Selección Menor Absoluto") fue propuesto por Robert Tibshirani en 1996. El LASSO es una técnica de regresión que incorpora la regularización L1 para reducir la magnitud de los coeficientes de regresión, lo que conduce a la selección automática de variables al forzar algunos coeficientes a cero.
  • "intervalos de confianza ajustados".

     "intervalos de confianza ajustados".
    1993: Bradley Efron introduce los "intervalos de confianza ajustados". Los intervalos de confianza ajustados toman en consideración la incertidumbre en la estimación del parámetro, así como la incertidumbre en los supuestos utilizados para construir el intervalo. Esto puede resultar en intervalos de confianza que son más realistas y que tienen en cuenta factores que los intervalos tradicionales podrían ignorar.
  • Experimentos secuenciales.

    Experimentos secuenciales.
    En 1995, Jeff Wu propuso el concepto de "experimentos secuenciales", que se refiere a un enfoque en el diseño de experimentos donde las decisiones sobre las condiciones experimentales a probar se toman de manera secuencial, basándose en los resultados previos.
  • "compresión esparcida".

     "compresión esparcida".
    2001: David Donoho acuña el término "compresión esparcida". La "compresión esparcida" se refiere a un método de compresión de datos en el que los datos se comprimen dispersando la información en diferentes partes del archivo comprimido.
  • Google lanzó Google Correlate.

    Google lanzó Google Correlate.
    En 2010, Google lanzó Google Correlate, una herramienta que permitía a los usuarios encontrar patrones de búsqueda relacionados con datos.
  • Resultados de las elecciones presidenciales de Estados Unidos.

    Resultados de las elecciones presidenciales de Estados Unidos.
    En 2012, Nate Silver, un renombrado analista de datos y estadístico, ganó mucha atención y reconocimiento por su capacidad para predecir con precisión los resultados de las elecciones presidenciales de Estados Unidos.
  • La pandemia de COVID-19

     La pandemia de COVID-19
    2020: La pandemia de COVID-19 destaca la importancia de las proyecciones y modelos estadísticos en la toma de decisiones.
  • La inteligencia artificial.

    La inteligencia artificial.
    2022: La inteligencia artificial y el aprendizaje automático siguen siendo áreas de crecimiento en la estadística.
  • La Estadística y la Inteligencia artificial.

    La Estadística y la Inteligencia artificial.
    La inteligencia artificial (IA) ha tenido un impacto significativo en el desarrollo de la estadística en los últimos años. La combinación de técnicas de IA con análisis estadísticos ha llevado a avances en diversas áreas.