-
1544
Sebastian Munster
Realizó una recopilación estadística de los recursos nacionales con datos sobre organización política, instituciones sociales, comercio y fuerzas militares; toda esta información aparece en su obra Cosmographia -
John Graunt
Fue el primero que empezó a
trabajar comparando los registros de nacimientos y muertes ya existentes. Es el primer trabajo sobre estadística de la población y se le considera el punto de partida de la Estadística Moderna. -
Jakob Bernoulli
Bernoulli se considera como el iniciador de la teoría de la probabilidad. En su obra "Ars Conjectandi", introduce lo que hoy se conoce como la primera ley de los grandes números. -
Abraham de Moivre
Expone la probabilidad binominal o distribución gaussiana, el concepto de independencia estadística y el uso de técnicas analíticas en el estudio de la probabilidad -
Thomas Bayes
Bayes fue pionero en utilizar la probabilidad de forma inductiva y construir una base matemática para la inferencia probabilística. Su principal hallazgo fue calcular la probabilidad de un suceso futuro basándose tanto en eventos previos como en las condiciones actuales y cualquier otro factor relacionado. -
Arthur Young
él comenzó a
experimentar para descubrir el método agrícola más rentable. Desarrolló un gran número
de experimentos, publicando sus resultados en UN libro llamado "Un Curso de Agricultura
Experimental", en 1771. Las ideas que presenta sobre el Diseño de Experimentos, una
importante disciplina de la Estadística actual, cuyas aplicaciones al campo industrial se
encuentran hoy en pleno desarrollo, son sorprendentemente modernas. -
Pierre Simon Laplace
Laplace sentó las bases científicas de la teoría matemática de las probabilidades, donde entre otros logros formuló el método de los mínimos cuadrados que es fundamental para la teoría de errores. -
Johann Karl Friedrich Gauss
Estudió la teoría de los errores y dedujo la curva normal de la probabilidad, llamada también curva de Gauss, que todavía se usa en los cálculos estadísticos. -
Adolphe Quetelet
Llamado el "padre de la Estadística moderna", por una publicación suya, de 1835, en que observa la extraordinaria regularidad con que se reproducían ciertos fenómenos sociales, como crímenes o suicidios, y argumenta que esas regularidades sólo pueden ser encontradas mediante el uso de técnicas estadísticas. Quetelet pensaba que casi todos los
fenómenos pueden ser representados probabilísticamente mediante la ley normal, siempre que el número de casos estudiados fuese suficientemente grande. -
Simeon Denis Poisson
Publicó un gran tratado de probabilidad en 1837. Contiene el germen de dos elementos asociados
al nombre de Poisson: La ley de probabilidad conocida como distribución de Poisson, y la
generalización de la ley de los grandes números de Bernoulli. -
Francis Galton
Francis Galton también utilizó la ley de probabilidad normal, en su versión
bivariada, para describir el comportamiento probabilístico de los errores de dos
características que varían en forma conjunta. La ley normal bivariada daría origen a la ley
normal multivariada. Esta es fundamental en la rama de la estadística denominada
análisis multivariante, que se preocupa del estudio de observaciones con múltiples
variables. -
Karl Pearson
Pearson, en su trabajo, dio más importancia a la cuantificación de la correlación entre dos variables, en la forma de un coeficiente, que la que le había dado Galton. El desarrolló varios coeficientes de correlación. A Karl Pearson se debe, también, el estadístico jicuadrado, Este estadístico, es utilizado como medida de comparación entre dos tablas de frecuencia, y una de sus aplicaciones es el probar el
ajuste de una ley probabilística a un conjunto de datos empíricos. -
Charles Spearman
Desarrollo el Análisis factorial, que es su clásico trabajo sobre inteligencia, donde distingue un factor general (factor G) y cierto número de factores específicos.
Creó y desarrollo la metodología de los llamados experimentos factoriales para la estadística, que son aquellos experimentos en los que se estudia simultáneamente dos o más factores, y donde los tratamientos se forman por la combinación de los diferentes niveles de cada uno de los factores. -
William Sealy Gosset
Publica un artículo "El Error Probable de una Media", bajo el seudónimo de Student. Esto lo llevó a desarrollar
la ley probabilística que hoy es conocida como t de Student, utilizada en lugar de la ley
normal de Gauss, en problemas con muestras pequeñas. Y también lo llevó a desarrollar
la prueba de hipótesis llamada hoy test de Student, para inferencias sobre medias
poblacionales, basadas en muestras pequeñas. -
Ronald Fisher
Desarrolló la teoría de estimación, es resumir
los datos de un modo eficiente, que preserve la mayor cantidad de información contenida. Si se conoce la forma funcional de la ley de probabilidad que gobierna la
población de donde provienen los datos, observó que la Función de Verosimilitud, la probabilidad de obtener la muestra dada, es un resumen de la información contenida en los datos. El método de maximizar la verosimilitud provee entonces el estimador más
eficiente, que no puede ser mejorado -
Mi Nacimiento
-
Mi primer Fiesta de Cumpleaños
-
Nacio Mi hermano
-
Primer Viaje en Avion
-
Nacio Mi hermana
-
Graducacion 6to Primaria
-
Me compraron mi primer auto
-
Graduación de 3ro Basico
-
Graduación de Bachillerato
-
Inicié mis estudios en la Universidad
Ingeniería Civil Administrativa