Es cierto que la distribución de números primos puede parecer aleatoria (y lo es hasta cierto punto). Sin embargo, las herramientas de la teoría analítica de números nos dan una visión crucial de la distribución de los números primos y revelan muchos patrones interesantes.
Deje que [math] \ pi (x) [/ math] represente el número de números primos [math] \ leq x [/ math] donde x es una variable real positiva.
De acuerdo con el teorema del número primo , del cual no conozco una buena prueba elemental (la más simple que conozco utiliza un análisis complejo), lo siguiente es cierto de [math] \ pi (x) [/ math] cuando x se acerca al infinito:
[matemáticas] \ pi (x) \ sim \ frac {x} {\ log x} [/ matemáticas]
- ¿Cómo demuestro esa serie 7 ^ -n! es irracional?
- ¿Cuáles son los cinco números racionales entre -1 y 1?
- El producto de 2 números es 432, y el cociente, cuando el más grande se divide por el más pequeño, es 3. ¿Cuál es la suma de los números?
- ¿Cómo pueden los números complejos describir sistemas / fenómenos físicos? Las cantidades reales están representadas, entonces, ¿por qué entra la raíz cuadrada de -1?
- Si 1 = 1, entonces, ¿qué es 1?
El ~ representa la equivalencia asintótica, cuya idea principal es que la función [matemática] \ pi (x) [/ matemática] se acerca mucho a la función [matemática] \ frac {x} {\ log x} [/ matemática] , con la aproximación cada vez mejor a medida que x se hace más y más grande.
Para aquellos familiarizados con el cálculo elemental, [matemática] f (x) \ sim g (x) [/ matemática] si el límite como x se aproxima al infinito de [matemática] \ frac {f (x)} {g (x)} [ / matemáticas] es 1.
Como es habitual en las matemáticas superiores, log representa el logaritmo natural. Esto también implica que si [math] p (n) [/ math] representa el [math] n [/ math] -th prime, entonces:
[matemáticas] p (n) \ sim n \ log (n) [/ matemáticas]
Otro colorario fácil es que si elige un entero aleatorio de los primeros enteros positivos [matemáticos] n [/ matemáticos], la probabilidad de que sea primo es de [matemáticos] \ frac {1} {\ log n} [/ matemáticos]
Otra forma del teorema de los números primos que es ligeramente menos intuitiva pero empíricamente más precisa es la siguiente:
[matemáticas] \ pi (x) \ sim \ int_2 ^ x \ frac {1} {\ log t} dt [/ matemáticas]
En ambos casos, el lado izquierdo es un número entero, mientras que el lado derecho tiene una función trascendental horrible (que podemos evaluar un poco más fácilmente que el izquierdo, por extraño que parezca). En cualquier caso, debe haber algún error si aproximamos [math] \ pi (x) [/ math] como [math] \ int_2 ^ x \ frac {1} {\ log t} dt [/ math]
Todavía no conozco el mejor límite de error probado hasta el momento, pero si la hipótesis de Riemann resulta ser cierta, podemos mejorar el límite de error para:
[matemáticas] \ pi (x) = \ int_2 ^ x \ frac {1} {\ log t} dt + O (\ sqrt {x} \ log (x)) [/ matemáticas]
Del mismo modo, si el error ligado es verdadero, también podemos probar la hipótesis de Riemann. Lo importante de este error es que es estricto: sabemos que no podemos hacerlo mejor.
Diría que el teorema de los números primos es probablemente el resultado más importante e interesante en la teoría analítica de números.
tl; dr, los números primos siguen asintóticamente una distribución que es como una función analítica relativamente fácil, entonces sí hay un patrón.