viernes, 17 de enero de 2014

Jacques Bernoulli (Creador de la Ley)

Jakob Bernoulli (Basilea, 27 de diciembre de 1654 - ibíd. 16 de agosto de 1705), también conocido como Jacob, Jacques o James Bernoulli, fue un genial matemático y científico suizo y hermano mayor de Johann Bernoulli (parte de la familia Bernoulli).
El primer libro sobre la teoría de la probabilidad fue Ars Conjectandi de Jacques Bernoulli, publicado en 1713. En este libro se formula la Ley de los Grandes Números: si un evento ocurre M veces sobre N intentos, al crecer el número de intentos, la relación: (M/N) se acerca cada vez más a la probabilidad del evento.

Siendo joven su padre Nikolaus Bernoulli, lo envió a la Universidad de Basilea para estudiar filosofía y teología, con el ánimo de que se convirtiera en teólogo. Pero Jakob continuó, a escondidas, las que eran sus auténticas aficiones la física y las matemáticas.

A partir de los planteamientos de Leibniz desarrolló problemas de cálculo infinitesimal. Fundó en Basilea un colegio experimental. Estudió por sí mismo la forma del Cálculo ideada por Leibniz. Desde 1687 hasta su muerte fue profesor de Matemáticas en Basilea. Jacob I fue uno de los primeros en desarrollar el Cálculo más allá del estado en que lo dejaron Newton y Leibniz y en aplicarlo a nuevos problemas difíciles e importantes. Sus contribuciones a la Geometría analítica, a la teoría de probabilidades y al cálculo de variaciones, fueron de extraordinaria importancia. Tenemos ya una muestra del tipo del problema tratado por el cálculo de variaciones en el teorema de Fermat sobre el tiempo mínimo. La matemática del problema se reduce a hacer que una cierta integral tome un valor máximo sometido a una condición restrictiva. Jacob I resolvió este problema y lo generalizó. el hecho de que la cicloide es la curva de más rápido descenso fue descubierto por los hermanos Jacob I y Johannes I, en 1697, y casi simultáneamente por varios autores Durante un viaje a Inglaterra en 1676, Jakob Bernoulli conoció a Robert Boyle yRobert Hooke. Este contacto le inspiró una dedicación vitalicia a la ciencia y la matemática. Fue nombrado Lector en la Universidad de Basilea en1682, y fue promocionado a Profesor de Matemáticas en 1687.

En 1690 se convirtió en la primera persona en desarrollar la técnica para resolver ecuaciones diferenciales separables.

Se familiarizó con el cálculo mediante su correspondencia con Gottfried Leibniz, y colaboró con su hermano Johann en varias aplicaciones, siendo notable la publicación de artículos en curvas trascendentales (1696) e isoperimetría (1700, 1701).


Su obra maestra fue Ars Conjectandi (el Arte de la conjetura), un trabajo pionero en la teoría de la probabilidad. La publicó su sobrino Nicholas en1713, ocho años tras su muerte por tuberculosis. Los términos ensayo de Bernoulli y números de Bernoulli son resultado de su trabajo. También existe un cráter en la Luna bautizado cráter Bernoulli en honor suyo y de su hermano Johann.

Explicación de Distribución Muestral de Medias

Distribucion muestral de la Media.

El estudio de determinadas características de una población se efectúa a través de diversas muestras que pueden extraerse de ella.
El muestreo puede hacerse con o sin reposición, y la población de partida puede ser infinita o finita. Una población finita en la que se efectúa muestreo con reposición puede considerarse infinita teóricamente. También, a efectos prácticos, una población muy grande puede considerarse como infinita. En todo nuestro estudio vamos a limitarnos a una población de partida infinita o a muestreo con reposición. 
Consideremos todas las posibles muestras de tamaño n en una población. Para cada muestra podemos calcular un estadístico (media, desviación típica, proporción,...) que variará de una a otra. Así obtenemos una distribución del estadístico que se llama distribución muestral.
Las dos medidas fundamentales de esta distribución son la media y la desviación típica, también denominada error típico.
Hay que hacer notar que si el tamaño de la muestra es lo suficientemente grande las distribuciones muestrales son normales y en esto se basarán todos los resultados que alcancemos.

Si tenemos una muestra aleatoria de una población N(m,s ), se sabe (Teorema del límite central) que la fdp de la media muestral es también normal con media m y varianza s2/n. Esto es exacto para poblaciones normales y aproximado (buena aproximación con n>30) para poblaciones cualesquiera. Es decir es el error típico, o error estándar de la media.
¿Cómo usamos esto en nuestro problema de estimación?
1º problema: No hay tablas para cualquier normal, sólo para la normal 
m=0 y s=1 (la llamada z); pero haciendo la transformación (llamada tipificación)

una normal de media m y desviación s se transforma en una z.
Llamando za al valor de una variable normal tipificada que deja a su derecha un área bajo la curva de a, es decir, que la probabilidad que la variable sea mayor que ese valor es a(estos son los valores que ofrece la tabla de la normal)
podremos construir intervalos de la forma

para los que la probabilidad es 1 - a.
Teniendo en cuenta la simetría de la normal y manipulando algebraícamente
que también se puede escribir
o, haciendo énfasis en que es el error estándar de la media,
Recuérdese que la probabilidad de que m esté en este intervalo es 1 - a. A un intervalo de este tipo se le denomina intervalo de confianza con unnivel de confianza del 100(1 - a)%, o nivel de significación de 100a%. El nivel de confianza habitual es el 95%, en cuyo caso a=0,05 y za /2=1,96. Al valor se le denomina estimación puntual y se dice que es un estimador de m.
Ejemplo: Si de una población normal con varianza 4 se extrae una muestra aleatoria de tamaño 20 en la que se calcula se puede decir que mtiene una probabilidad de 0,95 de estar comprendida en el intervalo
que sería el intervalo de confianza al 95% para m
En general esto es poco útil, en los casos en que no se conoce m tampoco suele conocerse s2; en el caso más realista de s2 desconocida los intervalos de confianza se construyen con la t de Student (otra fdpcontinua para la que hay tablas) en lugar de la z.
o, haciendo énfasis en que es el error estándar estimado de la media,
Este manera de construir los intervalos de confianza sólo es válido si la variable es normal. Cuando n es grande (>30) se puede sustituir t por zsin mucho error.

Ley de los Grandes Números

El aprendizaje del ser humano se expresa de muchas maneras entre ellas las mas resaltante son la visual-auditiva y la visual-lectora, tomando este mismo tema se desea resaltar el contenido y creación de este gran tema a continuación, para aquellas personas que se les dificultad solo leer, hemos encontrado una manera visual de explicar que hizo este gran personaje, sus ideas y ejemplos.

Ejercicio de Ley de los Grandes Números


Este video contiene dos ejemplos donde se puede explicar y apreciar la Ley de los Grandes Numeros.

sábado, 11 de enero de 2014

Pafnuti Chebyshov (Creador del Teorema)


Uno entre cinco hermanos, nació en el pueblo de Okátovo, en el distrito de Bórovsk, provincia de Kaluga. Su padre era el rico terrateniente Lev Pávlovich Chebyshov. Pafnuti recibió su educación primaria en su casa, de su madre Agrafena Ivánovna Chebyshova (lectura y escritura) y de su prima Avdotia Kvintiliánovna Sujariova (francés y aritmética). Su profesora de música jugó también un papel importante en la educación de Chebyshov, ya que "llevó su mente a la exactitud y el análisis", según mencionó el propio Chebyshov.

En septiembre de 1837 comenzó los estudios de matemática en el segundo departamento filosófico de la universidad de Moscú. En 1841 se le concedió la medalla de plata por su trabajo "cálculo de las raíces de ecuaciones" que había terminado en 1838. En esta contribución Chebyshov derivó una aproximación algorítmica para la solución de ecuaciones algebraicas de n-ésimo grado basándose en el algoritmo de Newton.

Aparte de sus lecciones en la universidad, de 1852 a 1858 Chebyshov enseñó mecánica práctica en el Liceo Imperial de Tsárskoye Seló (ahora Pushkin), un suburbio sureño de San Petersburgo.

Sus logros científicos dan razón de su elección como académico junior (adjunto) en 1856. Más adelante se convirtió en miembro extraordinario de la Academia Imperial de Ciencias (1856) y en miembro ordinario en 1858. Más aún, asumió otros cargos honorables y fue condecorado varias veces: en 1856 se convirtió en miembro del comité científico del ministerio de educación nacional, a lo que siguió en 1859 la pertenencia ordinaria al departamento de ordenanza de la academia con la adopción de la jefatura de la comisión para cuestiones matemáticas de acuerdo a la ordenanza y experimentos relacionados a la teoría de tiro. La Academia de París lo escogió como miembro corresponsal en 1860 y como miembro de pleno derecho en 1874. En 1893 fue elegido miembro honorario de la Sociedad Matemática de San Petersburgo, fundada recientemente en 1890.

Es conocido por su trabajo en el área de la probabilidad y estadística. La desigualdad de Chebyshov dice que la probabilidad de que una variable aleatoria esté distanciada de su media en más de a veces la desviación típica es menor o igual que 1/a^2. Si {\mathbf E}(X) es la media (o la esperanza matemática) y σ es la desviación típica, entonces podemos redefinir la relación como:

\Pr(|X - {\mathbf E}(X)| \ge a\,\sigma )\le \frac {1}{a^2}

Para todo número real positivo a. La desigualdad de Chebyshov se emplea para demostrar que la ley débil de los números grandes y el teorema de Bertrand-Chebyshov (1845|1850) que establece que la cantidad de números primos menores que n es: 


p(n)=n/\log(n)+o(n)

Pafnuti Lvóvich Chebyshov murió el 26 de noviembre de 1894 en San Petersburgo.

Teorema de Chebyshov

La desigualdad de Chebyshov es un resultado estadístico que ofrece una cota inferior a la probabilidad de que el valor de una variable aleatoria con varianza finita esté a una cierta distancia de su esperanza matemática o de su media; equivalentemente, el teorema proporciona una cota superior a la probabilidad de que los valores caigan fuera de esa distancia respecto de la media. El teorema es aplicable incluso en distribuciones que no tienen forma de "curva de campana" y acota la cantidad de datos que están o no "en medio".


Teorema: Sea X una variable aleatoria de media µ y varianza finita s². Entonces, para todo número real k > 0:


Sólo los casos con k > 1 proporcionan información útil.

Para ilustrar este resultado, supongamos que los artículos de Wikipedia tienen una extensión media de 1000 caracteres y una desviación típica de 200 caracteres. De la desigualdad de Chebyshov se deduce que al menos el 75% de los artículos tendrán una extensión comprendida entre 600 y 1400 caracteres (k = 2).


Otra consecuencia del teorema es que para cada distribución de media µ y desviación típica finita s, al menos la mitad de los valores caerán en el intervalo:


Las cotas proporcionadas por la desigualdad de Chebyshov, en general, no se pueden mejorar; es posible construir una variable aleatoria cuyas cotas de Chebyshov sean exactamente iguales a las probabilidades reales. Sin embargo, en general el teorema proporcionará cotas poco precisas.
El teorema puede ser útil a pesar de las cotas imprecisas porque se aplica a una amplia gama de variables que incluye las que están muy alejadas de la distribución normal, y porque las cotas son fáciles de calcular. El teorema se emplea para demostrar la ley débil de los números grandes.

El teorema recibe su nombre del matemático Pafnuty Chebyshov.