Cómo averiguar si hay una diferencia significativa entre dos medias en estadística

La diferencia significativa es un término algo vago y a menudo mal definido.

Si dos medios son iguales, nunca hay diferencia. Si no son iguales, entonces son diferentes. Preguntar algo así es que esa diferencia significativa requiere mucho contexto.

Una diferencia en los diámetros medios de dos planetas diferentes de 1 m probablemente no se consideraría significativa. Una diferencia en 1m de alturas promedio en 2 grupos ciertamente lo haría.

En algunos casos, entonces quizás a menudo relacionamos la noción de significación de la diferencia con el tamaño que se compara con los valores de la media. En última instancia, aunque no hay una regla específica sobre qué es y qué no es significativo.

Sin embargo, la pregunta planteada es sutilmente diferente. No pregunta si hay una diferencia significativa entre dos medias, pero dada una estimación de cada una de dos medias diferentes de cuán diferentes creemos que son las medias. Aquí podemos ser mucho más precisos, aunque lo que constituye significativo aún varía.

Supongamos que tenemos una secuencia de variables aleatorias (como, por ejemplo, lanzamientos de una moneda) [matemáticas] X_ {n} [/ matemáticas] que son independientes e idénticamente distribuidas con media [matemáticas] \ mu [/ matemáticas] y varianza [matemáticas] \ sigma ^ {2} [/ matemáticas]. Entonces hay un Teorema realmente bueno llamado el teorema del límite central que esencialmente dice [matemáticas] S_ {n} = \ Sigma_ {1} ^ {n} \ frac {X_ {k}} {n} [/ matemáticas] tiende a un distribución normal con media [matemática] \ mu [/ matemática] y varianza [matemática] \ frac {\ sigma ^ {2}} {n} [/ matemática].

¿Qué significa esto realmente? Dice que podemos pensar en nuestra estimación de la media como una variable aleatoria en sí misma y que su distribución es esencialmente normal para n lo suficientemente grande.

Hay algo de sutileza en esto en que mientras [math] S_ {n} [/ math] es una variable aleatoria, la media real [math] \ mu [/ math] no lo es.

Supongamos que ponemos n = 100, y encontramos la estimación de la media [matemática] S_ {100} [/ matemática] y luego hicimos todo el proceso nuevamente y obtuvimos una nueva estimación de la media [matemática] E_ {100} [/ matemática ] La media aquí no ha cambiado, pero esperaríamos que las dos estimaciones no fueran las mismas. El teorema del límite central describe la forma en que se distribuyen estas estimaciones y, por lo tanto, cuán diferentes esperaríamos que se vean.

En la misma línea, esencialmente podemos hacer la pregunta opuesta. Si tenemos dos secuencias diferentes de variable aleatoria [matemática] Y_ {n} [/ matemática] y [matemática] X_ {n} [/ matemática] podríamos querer saber si sus medias son las mismas.

No podemos simplemente medir, estimar las medias y decir si nuestras estimaciones son diferentes, también lo son las medias reales, porque como se notó si las medias fueran las mismas, probablemente obtendríamos resultados diferentes.

El teorema del límite central nos proporciona una forma de hablar con mayor sensatez sobre si creemos que los medios son realmente diferentes. Hacemos esto usando una herramienta llamada intervalos de confianza.

Supongamos primero que acabamos de tener una secuencia de variables aleatorias, [matemática] X_ {n} [/ matemática] con media [matemática] \ mu [/ matemática] y varianza [matemática] \ sigma ^ {2} [/ matemática]. Si obtenemos estimaciones de la media y la varianza, digamos [math] M [/ math] y [math] S [/ math] usando k variables podemos construir un intervalo de confianza sobre [math] M [/ math]. Lo que hacemos aquí es esencialmente decir, si [matemática] M [/ matemática] y [matemática] S [/ matemática] fueran de hecho las medias y la varianza, ¿cómo sería la distribución de la media muestral? En particular, si tenemos algo de [matemática] 0 <p <1 [/ matemática] podemos preguntar cuál es el intervalo simétrico sobre M que contendría la media muestral con probabilidad p.

Es tentador referirse a estos intervalos de confianza como la descripción de la distribución de probabilidad de la media misma. Es decir, la media estará dentro del intervalo con probabilidad p. Esto no es realmente cierto, la media no es en realidad una variable aleatoria, ya es un valor fijo (simplemente no sabemos qué es).

Si tenemos dos secuencias [matemáticas] X_ {n} [/ matemáticas] y [matemáticas] Y_ {n} [/ matemáticas] que queremos comparar, tenemos un par de opciones. Podríamos construir intervalos de confianza para cada uno de ellos y observar la superposición, esencialmente preguntando qué tan probable es que lo hagamos, mediremos la misma media.

Es cierto que si dos intervalos de confianza no se superponen, los medios son muy diferentes. Lo contrario no es realmente cierto, como se describe aquí. https://www.cscu.cornell.edu/new….

Los valores de p, o con frecuencia [matemática] 1-p [/ matemática] o [matemática] \ frac {1-p} {2} [/ matemática] a menudo se usan para describir el significado. Incluso podemos decir cosas como qué tan alto necesitamos que sea el valor p para que no haya superposición, lo que nos da quizás una medida más concreta de la importancia de sus diferencias. Si p = 0.1 dice, entonces en realidad no son muy diferentes.

O podemos tomar la media estimada de una secuencia, decir [math] X_ {n} [/ math] y preguntar si [math] Y_ {n} [/ math] realmente tenía esto como una media, ¿cuál sería la confianza? intervalos parecen. En particular, entonces, ¿qué tan probable sería obtener una media estimada de [matemática] Y_ {n} [/ matemática] tan lejos o más de la estimación de la media de [matemática] x_ {n} [/ matemática].

De manera similar, podríamos preguntarnos si la media de [matemáticas] X_ {n} [/ matemáticas] era la misma que nuestra estimación, ¿cuáles son las posibilidades de que si lo hiciéramos todo nuevamente obtendríamos una estimación tan diferente o más que la estimación que ya tengo para [matemáticas] Y_ {n} [/ matemáticas].

En algunos sentidos, la noción de diferencia significativa es que algo no tiene una declaración inversa fuerte. Es decir, en realidad no decimos que las cosas sean significativamente iguales, decimos que una prueba en particular no ha demostrado una diferencia significativa.

El método que desee realmente depende de por qué se pregunta si dos cosas son diferentes. En el caso de su pregunta, mirar la superposición del intervalo de confianza para p = 0.95 es probablemente suficiente.

Por supuesto, hay otras pruebas de diferencia significativa, como el uso de una distribución t. Simplemente sentí que el uso del teorema del límite central estaba más obviamente implicado por la configuración de la pregunta, además es un teorema realmente genial.

Esta es una pregunta de prueba de hipótesis.

Debes buscarlo en tu libro de texto.

De lo contrario, estoy seguro de que hay buenos recursos en línea que le enseñarán.