Si [matemáticas] \ lim_ {n \ rightarrow \ pm \ infty} \ left (1- \ frac {(- 1 + n) ^ n} {n ^ {- n}} \ right) = \ frac {e-1 } {e} \ aprox. 0.632121, [/ math] ¿un dado que se acerca a los lados del infinito lanzado una cantidad aproximadamente infinita de veces, tiene la posibilidad de no lanzar un lado igual al 63%?

El enunciado que ha elegido, en particular “acercarse a lados infinitos” y “rodar una cantidad aproximadamente infinita de veces”, no es una forma clara de expresar la idea que está tratando de comunicar. Creo que es mejor mantener la declaración limitante:

La probabilidad de que un dado de n lados nunca muestre el lado ‘1’ en n tiradas converge a [math] \ frac {1} {e} [/ math] como [math] n \ to \ infty [/ math] .

Si desea ver cómo se ve esta declaración con la declaración limitante integrada en la terminología, aquí está:

La probabilidad de que una variable aleatoria de Poisson media unitaria sea igual a 0 es [matemática] \ frac {1} {e} [/ matemática] .

Como puede ver, la declaración ya no es reconocible a menos que conozca la definición de una distribución de Poisson y entienda su conexión con la distribución binomial. Creo que la primera versión es más clara.

Tienes dos cantidades que se acercan al infinito al mismo tiempo: el número de lados y el número de rollos. Eso significa que estás tomando dos límites. Por lo tanto, depende del tamaño relativo de esas dos cantidades. Por ejemplo, si está tirando un [math] n ^ 2 [/ math] -sided-die [math] n [/ math] veces, entonces se acercará a la probabilidad cero. Por el contrario, se acercará a la probabilidad [matemática] 1 [/ matemática] si tira un [matemático] n [/ matemático] dado de lado [matemático] n ^ 2 [/ matemático] veces.

Sin embargo, si sacas un dado [matemático] n [/ matemático] [matemático] n [/ matemático] veces, y llevas ese límite al infinito, entonces tu conclusión es casi exacta, excepto que es todo lo contrario. Suponiendo que entendemos que no se tira un lado en particular , en lugar de no tirar ningún lado (cuya probabilidad se aproxima a [matemáticas] 1 [/ matemáticas], ya que eso es lo mismo que la probabilidad de cualquier repetición), entonces, según la respuesta citada , la probabilidad de tirar al menos uno de esos lados se aproxima a [matemáticas] 1- \ frac {1} {e} [/ matemáticas], por lo que la probabilidad de no tirar ninguno es [matemáticas] 1 / e [/ matemáticas] , o lo contrario de lo que sugiere (un resultado, creo, de equivocar su límite).

Supongamos que tenemos un dado justo con [math] n [/ math] lados. Esto significa que la probabilidad, en cualquier tirada, de no tener [matemática] 1 [/ matemática], es [matemática] 1 – \ frac {1} {n} [/ matemática] o [matemática] \ frac {n – 1} {n} [/ matemáticas]

Además, sabemos que cada tirada debe ser independiente, por lo que después de k tira la probabilidad de que todavía no hayamos obtenido una [matemática] 1 [/ matemática] es [matemática] (\ frac {n – 1} {n}) ^ k [/matemáticas].

La cuestión con su problema es que los valores n y k no están correlacionados de ninguna manera; lo que quiero decir con eso es que el infinito del número de lados del dado no tiene nada que ver con la infinitud del número de tiradas de dicho dado.

Veamos qué sucede con la probabilidad si hacemos constante una de las variables.

Si establecemos que n sea constante y hacemos que k se acerque al infinito, [math] n ^ k [/ math] crece más rápido que [math] (n – 1) ^ k [/ math] y, por lo tanto, la probabilidad de que no arrojemos un [ matemática] 1 [/ matemática] va a [matemática] 0 [/ matemática]… pero si [matemática] n [/ matemática] se acerca al infinito, tenemos una forma indeterminada de [matemática] 1 ^ {\ infty} [/ matemática] .

Si establecemos [math] k [/ math] como constante, y hacemos que n se acerque al infinito, nuestra expresión se convierte en [math] 1 ^ k [/ math] y si [math] k [/ math] es un valor finito obtener [matemática] 1 [/ matemática], pero nuevamente, cualquier matemático que se precie le diría que si [matemática] k [/ matemática] va a [matemática] \ infty [/ matemática] tenemos una forma indeterminada de [matemática ] 1 ^ {\ infty} [/ math] nuevamente.

Por lo tanto, nuestra función de probabilidad de dos variables [matemáticas] P (n, k) = (\ frac {n – 1} {n}) ^ k [/ matemáticas] no tendrá una respuesta definitiva a menos que unamos estas variables camino.

Si, por ejemplo, tiramos los dados la misma cantidad de veces que hay caras, nuestra función se convierte en [matemáticas] p (n) = (1 – \ frac {1} {n}) ^ {n} [/ matemáticas] y en el infinito tenemos una probabilidad de [matemática] \ frac {1} {e} [/ matemática] de no golpear una [matemática] 1 [/ matemática]. Pero si decimos que tiraremos los dados el doble de veces que hay caras, entonces [matemáticas] p (n) = (1 – \ frac {1} {n}) ^ {2n} [/ matemáticas], y en el infinito nuestra probabilidad se convierte en [matemáticas] \ frac {1} {e ^ 2} [/ matemáticas]. Sin embargo, si [math] k = n ^ 2 [/ math], tenemos que [math] p (n) [/ math] va a [math] 0 [/ math] (dejo la prueba al lector).