Por qué los errores estadísticos en una medida disminuyen con n ^ 0,5; con n los elementos de la muestra?

Los errores estadísticos disminuyen con n ^ 0.5 cuando la estimación es una media muestral y el error estándar se usa como medida. De lo contrario, esto podría no ser exactamente cierto, pero a menudo es aproximadamente cierto para muestras grandes para otras estimaciones. Para muestras grandes, la estimación de máxima verosimilitud tiende a comportarse como una media (bajo ciertas condiciones de regularidad es mejor asintóticamente normal).

En el caso de estimar una media, el resultado se deriva de las propiedades de la varianza. La varianza de una suma de observaciones independientes es la suma de las varianzas. La raíz cuadrada proviene de sacar la raíz cuadrada para obtener el error estándar. Se aplica a otras medidas de dispersión cuando la muestra es grande si la estimación tiene una distribución normal aproximada. Por ejemplo, como el rango intercuartil es una proporción fija del error estándar, la regla n ^ 0.5 también se aplica (con muestras grandes).

Entonces, necesitamos ver por qué esto funciona para medidas más generales. La respuesta se encuentra en el límite inferior Cramer-Rao, que debe buscar.

No siempre es cierto: falla cuando no se cumplen las condiciones para el límite inferior Cramer-Rao. Por ejemplo, si los datos se distribuyen uniformemente de 0 a K donde se va a estimar K, la observación máxima (esta es la estimación de máxima verosimilitud) es supereficiente. Eso significa que es mucho mejor que n ^ -0.5, de hecho, la variación es de orden 1 / n. (Una estimación aún mejor es (n + 1) / n veces la observación máxima cuyo error estándar también es del orden 1 / n.)