Una aplicación de determinantes que me gusta mucho es que pueden usarse para calcular el número de árboles de expansión en un gráfico. Esta es la declaración del teorema de Kirchhoff (Wikipedia). Dado que se puede calcular el determinante de una matriz en tiempo polinómico en la longitud de codificación de la matriz, esto muestra que se puede calcular el número de árboles de expansión de un gráfico en tiempo polinómico.
Una observación secundaria quizás interesante: contar el número de coincidencias o coincidencias perfectas en un gráfico es un problema # P-completo, incluso para gráficos bipartitos (Wikipedia). Por otro lado, este problema está relacionado con el cálculo del permanente de una matriz (Wikipedia). La definición del determinante y permanente de una matriz se ve muy similar. Para una matriz [math] A \ en R ^ {n \ times n} [/ math], donde [math] R [/ math] es un anillo arbitrario, uno tiene:
[math] \ operatorname {perm} A = \ sum _ {\ sigma \ en S_n} \ prod_ {i = 1} ^ n A_ {i, \ sigma \ left (i \ right)}, [/ math]
[math] \ det A = \ sum _ {\ sigma \ en S_n} \ operatorname {sgn} \ sigma \ prod_ {i = 1} ^ n A_ {i, \ sigma \ left (i \ right)}, [/ math ]
- ¿Necesita saber álgebra lineal para el análisis de Fourier?
- ¿Cuál es el propósito de una transformación afín?
- La matriz H es simétrica positiva definida. La matriz A = DH también es simétrica positiva definida. ¿Cuál debería ser la matriz D?
- Mientras deriva la transformación de Lorentz, ¿cómo sabe que la transformación será lineal?
- ¿Cuál es el valor de (A vector + B vector)? (punto) (A vector Cross B vector)?
Y aun así, estas dos funciones parecen ser tan diferentes en términos del tiempo necesario para calcularlas (si uno pudiera calcular el permanente de una matriz integral en tiempo polinómico, esto implicaría P = NP).