¿Cuál es el problema matemático más difícil que haya encontrado?

No diré lo más difícil, pero el problema que me dio noches de insomnio fue este. Este problema en particular me vino a la mente cuando supongo que estaba en la clase 8 o 9.

Entonces hay una rueda con radio interno ‘r’ y radio externo ‘R’ (R> r).

Ahora, la rueda toma una revolución, es decir, si consideramos el radio interno ‘r’, se movió una distancia de 2 * pi * r. Y si consideramos el radio exterior ‘R’, se movió una distancia de 2 * pi * R.

¡Pero espera! La distancia tiene que ser igual, es decir, RS = PQ

Que técnicamente es 2 * pi * r = 2 * pi * R

=> r = R

Woah !! ¿¿¿Como es eso posible??? : O

Bueno, todavía estoy buscando una solución matemática satisfactoria para esto. Pero si consideramos una solución de ‘Física’, los dos puntos P y R se mueven a diferentes velocidades y el círculo más pequeño se desliza efectivamente a medida que el sistema rueda.

Pero honestamente, me gustaría una respuesta ‘para tontos’ a esto. ¿Alguien?

Una generalización del ejercicio de matrices exponenciales de Pauli en un libro de computación cuántica (Nielson y Chuang) me llevó casi dos días para encontrar una buena solución. Estuve muy orgulloso de ello durante unos días. La razón fue que no fue tan difícil, pero la solución final fue muy fácil de entender. (Si tiene suficientes antecedentes para entender la pregunta).

Deje que [math] \ hat {n} [/ math] sea un vector unitario 3D y deje que [math] \ vec {\ sigma} [/ math] sea un vector de las matrices de Pauli

[matemáticas] \ vec {\ sigma} = \ left (\ left (\ begin {matrix} 0 & 1 \\ 1 & 0 \ end {matrix} \ right) \, \ \ left (\ begin {matrix} 0 & – i \\ i & 0 \ end {matrix} \ right) \, \ \ left (\ begin {matrix} 1 & 0 \\ 0 & -1 \ end {matrix} \ right) \ right) [/ math]

Deje que [math] \ theta \ in \ mathbb {R} [/ math] y [math] f [/ math] sean una función de números complejos a números complejos, extendidos a matrices usando su serie de potencia. Muestra esa

[matemáticas] f (\ theta \ \ hat {n} \ cdot \ vec {\ sigma}) = \ frac {f (\ theta) + f (- \ theta)} {2} I + \ frac {f (\ theta) – f (- \ theta)} {2} \ hat {n} \ cdot \ vec {\ sigma} [/ math]

Esta es una versión generalizada de la fórmula:

[matemáticas] \ exp (i \ theta \ hat {n} \ cdot \ vec {\ sigma}) = \ cos \ theta I + i \ sin \ theta \ hat {n} \ cdot \ vec {\ sigma} [/ matemáticas]

Lo primero a tener en cuenta es que, los valores propios de [math] \ hat {n} \ cdot \ vec {\ sigma} [/ math] son ​​1 y -1. Porque,

[matemáticas] \ hat {n} \ cdot \ vec {\ sigma} = \ begin {bmatrix} n_3 & n_1-n_2i \\ n_1 + n_2i & -n_3 \ end {bmatrix} [/ math]

[matemáticas] \ det (\ hat {n} \ cdot \ vec {\ sigma} – \ lambda I) = \ lambda ^ 2 – (n_1 ^ 2 + n_2 ^ 2 + n_3 ^ 2) = \ lambda ^ 2 – 1 = 0 [/ matemáticas]

Según el teorema de descomposición espectral, tenemos dos vectores propios ortonormales y diagonalización como:

[matemáticas] \ hat {n} \ cdot \ vec {\ sigma} = | e_1 \ rangle \ langle e_1 | – | e_2 \ rangle \ langle e_2 | [/ math]

Por la fórmula de Sylvester para funciones que son funciones analíticas. Tenemos

[matemáticas] f (\ theta ~ \ hat {n} \ cdot \ vec {\ sigma}) = f (\ theta) | e_1 \ rangle \ langle e_1 | + f (- \ theta) | e_2 \ rangle \ langle e_2 | [/ math]

Dado que los mismos vectores ortonormales forman una base, tenemos una relación de integridad que da:

[matemáticas] I = | e_1 \ rangle \ langle e_1 | + | e_2 \ rangle \ langle e_2 | [/matemáticas]

Eso implica

[matemáticas] | e_1 \ rangle \ langle e_1 | = \ frac {I + \ hat {n} \ cdot \ vec {\ sigma}} {2} [/ math]

[matemáticas] | e_2 \ rangle \ langle e_2 | = \ frac {I – \ hat {n} \ cdot \ vec {\ sigma}} {2} [/ math]

Sustituyendo, obtenemos:

[matemáticas] f (\ theta ~ \ hat {n} \ cdot \ vec {\ sigma}) = f (\ theta) \ frac {I + \ hat {n} \ cdot \ vec {\ sigma}} {2} + f (- \ theta) \ frac {I – \ hat {n} \ cdot \ vec {\ sigma}} {2} [/ math]

Reescribiendo:

[matemáticas] f (\ theta ~ \ hat {n} \ cdot \ vec {\ sigma}) = \ frac {f (\ theta) + f (- \ theta)} {2} I + \ frac {f (\ theta) -f (- \ theta)} {2} \ hat {n} \ cdot \ vec {\ sigma} [/ math]

Este se debe a mi profesor de matemáticas.

Las negras son bayas y los granates son cerezas. Coloque ocho cerezas más quitando bayas una de cada fila y columna. ¿De cuántas maneras puede hacer eso?

Edición 1: finalmente recibí una respuesta. Este problema es otra forma del famoso problema de Ménage.

El problema se traduce en: Dado un conjunto A = {1 … n} no se encuentran formas de formarse como (i) para todo i en el conjunto A como: s (i) # i y s (i) # i + 1. Los que no son iguales a los estados son las cerezas aquí. Considere la matriz como una plegada y vea el patrón.

Puede encontrar la discusión detallada aquí:

Las negras son bayas y las granate son cerezas. Coloque 8 cerezas más quitando las bayas 1 de cada fila y cada columna. No de maneras?

Diría muchos que obtuve de 3 libros.

Libro de Tata McGraw Hill sobre matemáticas (varios problemas sobre probabilidad, combinación de permutación y pocos en geometría coordinada y funciones. Pero no puedo ponerlos todos en una sola respuesta.
Pero fueron los problemas físicos de IEIRODOV los que me hicieron pasar un mal rato, aunque era muy fuerte en mecánica, termodinámica y dinámica de fluidos.
Pero los problemas relacionados con la electricidad (como algunos problemas en w.bridge donde tienes que calcular la RE efectiva del circuito con 5 ramas dadas. Esos problemas fueron realmente difíciles de resolver y muy pocos en mecánica estadística. Incluso pocos problemas en la onda La óptica con los experimentos de doble rendija de Young fue difícil para mí, pero ciertamente no fue tan difícil como la probabilidad o pocos problemas basados ​​en DI.
Pero si tengo que solucionar un problema matemático en particular, diría que el último teorema de Fermat fue definitivamente el más desafiante. Pocos problemas en el análisis de tensor me hicieron pasar un mal rato cuando estaba en la escuela secundaria.
Pero los problemas generales basados ​​en la física siempre fueron más fáciles para mí que resolver una difícil integración, probabilidad, etc.