¿Por qué 0.1 tiene el mismo número de cifras significativas que 0.001 cuando este último es una lectura más precisa?

Para explicarlo explícitamente, 0.1234 y 0.0001 deben considerarse una forma abreviada conveniente para 0.1234 [matemáticas] \ pm [/ matemáticas] 0.00005 y 0.0001 [matemáticas] \ pm [/ matemáticas] 0.00005. Puede ver que el primero tiene una incertidumbre relativa del 0.04% pero el segundo tiene una incertidumbre relativa del 50%. Para abordar la segunda parte de su pregunta, el número final de cifras significativas depende de qué tipo de operación. Por ejemplo, cuando agrega, las incertidumbres absolutas se combinan, generalmente en forma cuadrática media, de modo que

[matemáticas] 0.1234 \ pm 0.00005 + 0.0001 \ pm 0.00005 = 0.1235 \ pm 0.00007 [/ matemáticas]

Sin embargo, cuando multiplica, las incertidumbres relativas se combinan para que

[matemáticas] 0.1234 \ pm 0.00005 \ veces 0.0001 \ pm 0.00005 = 0.0001234 \ pm 0.00006 = 0.00012 \ pm 0.00006 [/ matemáticas].

Si está interesado, consultaría una referencia sobre propagación de errores / propagación de incertidumbre, como el Análisis Químico Cuantitativo de Harris.

El problema es una cuestión de unidades: .001 metros es idéntico a 1 milímetro. Los ceros a la izquierda no importan, porque pueden reescribirse con un simple cambio de unidades.

Los científicos a menudo escriben en notación científica para aclararlo. [matemáticas] 1 \ por 10 ^ {- 1} [/ matemáticas]
y [math] 1 \ times 10 ^ {- 3} [/ math] tienen el mismo número de cifras significativas, por lo que no se preguntará cómo contarlas.

Los ceros finales especifican precisión. .100 tiene más precisión que .1, y .00100 tiene más dígitos que .001. Una vez más, la notación científica o al menos un cambio en las unidades lo hará mucho más claro, como [matemáticas] 1.00 \ veces 10 ^ {- 1} [/ matemáticas] o [matemáticas] 1.00 \ veces 10 ^ {- 3} [/ matemáticas]. El sistema métrico facilita el cambio de unidades, por lo que los científicos lo prefieren a las unidades inglesas.

Hay una suposición en la pregunta de que las cifras significativas son una medida de precisión. No son. Además, la precisión no es lo mismo que la precisión [1].

En la práctica, el propósito de dígitos significativos es limitar la cantidad de detalles en una respuesta o un valor mostrado al necesario para el consumo humano o debido a la limitación de la máquina . NO significan exactitud o precisión de ninguna manera significativa y no deben usarse para inferir el significado estadístico de una medida.

¿Por qué? Porque el universo no es base 10 . Cortar un dígito o agregar otro dígito transmite muy poco sobre, digamos, el valor p [2] de su resultado o el intervalo de confianza [3] de su medida.

Debe preguntarle al fabricante de su báscula cuál es el intervalo de confianza del 95% de la medición. No estoy bromeando; de hecho debería estar en el manual (probablemente escrito como un valor ±).

[1] ver http://en.wikipedia.org/wiki/Acc
[2] http://en.wikipedia.org/wiki/Pv
[3] http://en.wikipedia.org/wiki/Con