Una generalización del ejercicio de matrices exponenciales de Pauli en un libro de computación cuántica (Nielson y Chuang) me llevó casi dos días para encontrar una buena solución. Estuve muy orgulloso de ello durante unos días. La razón fue que no fue tan difícil, pero la solución final fue muy fácil de entender. (Si tiene suficientes antecedentes para entender la pregunta).
Deje que [math] \ hat {n} [/ math] sea un vector unitario 3D y deje que [math] \ vec {\ sigma} [/ math] sea un vector de las matrices de Pauli
[matemáticas] \ vec {\ sigma} = \ left (\ left (\ begin {matrix} 0 & 1 \\ 1 & 0 \ end {matrix} \ right) \, \ \ left (\ begin {matrix} 0 & – i \\ i & 0 \ end {matrix} \ right) \, \ \ left (\ begin {matrix} 1 & 0 \\ 0 & -1 \ end {matrix} \ right) \ right) [/ math]
Deje que [math] \ theta \ in \ mathbb {R} [/ math] y [math] f [/ math] sean una función de números complejos a números complejos, extendidos a matrices usando su serie de potencia. Muestra esa
[matemáticas] f (\ theta \ \ hat {n} \ cdot \ vec {\ sigma}) = \ frac {f (\ theta) + f (- \ theta)} {2} I + \ frac {f (\ theta) – f (- \ theta)} {2} \ hat {n} \ cdot \ vec {\ sigma} [/ math]
Esta es una versión generalizada de la fórmula:
[matemáticas] \ exp (i \ theta \ hat {n} \ cdot \ vec {\ sigma}) = \ cos \ theta I + i \ sin \ theta \ hat {n} \ cdot \ vec {\ sigma} [/ matemáticas]
Lo primero a tener en cuenta es que, los valores propios de [math] \ hat {n} \ cdot \ vec {\ sigma} [/ math] son 1 y -1. Porque,
[matemáticas] \ hat {n} \ cdot \ vec {\ sigma} = \ begin {bmatrix} n_3 & n_1-n_2i \\ n_1 + n_2i & -n_3 \ end {bmatrix} [/ math]
[matemáticas] \ det (\ hat {n} \ cdot \ vec {\ sigma} – \ lambda I) = \ lambda ^ 2 – (n_1 ^ 2 + n_2 ^ 2 + n_3 ^ 2) = \ lambda ^ 2 – 1 = 0 [/ matemáticas]
Según el teorema de descomposición espectral, tenemos dos vectores propios ortonormales y diagonalización como:
[matemáticas] \ hat {n} \ cdot \ vec {\ sigma} = | e_1 \ rangle \ langle e_1 | – | e_2 \ rangle \ langle e_2 | [/ math]
Por la fórmula de Sylvester para funciones que son funciones analíticas. Tenemos
[matemáticas] f (\ theta ~ \ hat {n} \ cdot \ vec {\ sigma}) = f (\ theta) | e_1 \ rangle \ langle e_1 | + f (- \ theta) | e_2 \ rangle \ langle e_2 | [/ math]
Dado que los mismos vectores ortonormales forman una base, tenemos una relación de integridad que da:
[matemáticas] I = | e_1 \ rangle \ langle e_1 | + | e_2 \ rangle \ langle e_2 | [/matemáticas]
Eso implica
[matemáticas] | e_1 \ rangle \ langle e_1 | = \ frac {I + \ hat {n} \ cdot \ vec {\ sigma}} {2} [/ math]
[matemáticas] | e_2 \ rangle \ langle e_2 | = \ frac {I – \ hat {n} \ cdot \ vec {\ sigma}} {2} [/ math]
Sustituyendo, obtenemos:
[matemáticas] f (\ theta ~ \ hat {n} \ cdot \ vec {\ sigma}) = f (\ theta) \ frac {I + \ hat {n} \ cdot \ vec {\ sigma}} {2} + f (- \ theta) \ frac {I – \ hat {n} \ cdot \ vec {\ sigma}} {2} [/ math]
Reescribiendo:
[matemáticas] f (\ theta ~ \ hat {n} \ cdot \ vec {\ sigma}) = \ frac {f (\ theta) + f (- \ theta)} {2} I + \ frac {f (\ theta) -f (- \ theta)} {2} \ hat {n} \ cdot \ vec {\ sigma} [/ math]