No estoy tan seguro de que esta afirmación sea cierta.
Sin duda, puede probar que cualquier matriz cuadrada no singular puede factorizarse en una matriz triangular y una matriz ortogonal ; esto es lo que comúnmente se conoce como factorización QR . Esto se hace a través del proceso de Gram-Schmidt: esencialmente, usted ortogonaliza las columnas de una matriz dada [matemática] A [/ matemática] restando de cada vector de columna la proyección de ese vector en cada uno de los vectores anteriores. (Si resta las proyecciones, le quedan vectores que son ortogonales entre sí).
Los vectores ortogonales que le quedan pueden formar una matriz ortogonal [matemática] Q [/ matemática] mientras que, esencialmente, los factores de proyección eliminados pueden reunirse en una matriz triangular superior [matemática] R [/ matemática]. Entonces es cierto que [matemáticas] A = QR [/ matemáticas]. (Lo que realmente hace es tomar [matemática] A = QR [/ matemática] como un hecho y calcular [matemática] R [/ matemática] a partir de [matemática] Q ^ TA [/ matemática], ya que [matemática] Q ^ T = Q ^ {- 1} [/ math] es cierto para las matrices ortogonales).
Sin embargo, [matemáticas] Q [/ matemáticas] no siempre es simétrica …
- ¿Por qué no usamos simplemente núcleos no lineales, incluso en conjuntos de datos separables linealmente?
- ¿Cómo se llama una matriz cuyos elementos son suma de términos finitos? ¿Hay alguna manera de invertir tales matrices?
- ¿Son necesarios los vectores, o este concepto de vector es simplemente una conveniencia para expresar cantidades físicas?
- Cómo calcular el mapa dual [matemática] \ varphi ^ * [/ matemática] de [matemática] \ varphi [/ matemática]
- ¿Es la longitud del producto cruzado de dos vectores igual al área del paralelogramo formado por ellos? ¿Cómo?