¿Es necesario / importante aprender teoría de números para la informática y los algoritmos de escritura?

¿Es la teoría de los números necesaria / importante para la informática y los algoritmos de escritura?

Realmente tengo problemas para resolver problemas matemáticos usando la programación (por ejemplo, secuencia de Fibonacci, cosas relacionadas con números primos, etc.

Su pregunta y sus detalles no parecen coincidir.

Por ejemplo, ¿entiendes la secuencia de Fibonacci? Es súper simple: normalmente comienza con los dos números 1 y 1, y luego cada número es la suma de los dos números anteriores:

1 1 => 2 (1 + 1 = 2)

1 1 2 => 3 (1 + 2 = 3)

1 1 2 3 5 8 13…

Ignora la computadora por un minuto. ¿Me puede dar el décimo número de Fibonacci? Puedes usar lápiz y papel.

Supongo que no tendrá problemas para producir este número. Si tiene problemas para escribir el código para obtener el número, su problema no es con la teoría de números, sino con el código. ¿Cómo llegaste a ese décimo número? ¿Cómo puedes hacer que tu código haga lo que hiciste?

Define lo que quieres decir con teoría de números. Los resultados simples como la identidad de Bézout o la factorización de enteros, el teorema del resto polinómico, etc., son útiles a diario al codificar muchos programas e implementar muchos algoritmos.

Lea Introducción a los algoritmos, varios capítulos están utilizando algunos resultados básicos de la teoría de números. La teoría de la complejidad computacional está utilizando algunos resultados de la teoría de números.

Sin embargo, si realiza un doctorado en teoría de números, podría darse el caso de que el resultado principal de su investigación (que sería un resultado muy específico y limitado) podría no ser directamente útil para las tareas diarias de codificación.

En términos más generales, las habilidades matemáticas (e incluso las habilidades físicas) están relacionadas con el acto de abstraer cierta realidad en algún modelo, y esa habilidad es muy relevante para la programación.

Yo diría que sí. La teoría de números es un segmento importante de la mayoría de los cursos de informática, y la lógica detrás de muchos algoritmos es principalmente numérica. Los principios subyacentes importantes de la computación, como la notación Big O y el álgebra booleana, también requieren que puedas abstraer matemáticamente

No veo cómo aprender teoría de números será útil para resolver ese tipo de ejercicios de programación.