¿Por qué el producto escalar solo se define para vectores, y no para matrices que pueden tener un tamaño arbitrario?

Intentaré agregar una perspectiva diferente.

TLDR: No tenemos exactamente productos de puntos, pero podemos acercarnos a algo en espacios vectoriales normalizados.

Respuesta larga:

De wikipedia:
Un espacio vectorial sobre un campo F es un conjunto V junto con dos operaciones que satisfacen los ocho axiomas enumerados a continuación. Los elementos de V se denominan comúnmente vectores . Los elementos de F se denominan comúnmente escalares . La primera operación, llamada suma de vectores o simplemente suma , toma cualquiera de los dos vectores v y w y les asigna un tercer vector que comúnmente se escribe como v + w , y se llama la suma de estos dos vectores. La segunda operación, llamada multiplicación escalar, toma cualquier escalar ay cualquier vector v y le da a otro vector a v .

Axioma Significado :

  • Asociatividad de la suma u + ( v + w ) = ( u + v ) + w
  • La conmutatividad de la suma u + v = v + u
  • Elemento de identidad de adición Existe un elemento 0V , llamado vector cero , de modo que v + 0 = v para todos vV.
  • Elementos de suma inversos Para cada v ∈ V, existe un elemento – vV , llamado inverso aditivo de v , de modo que v + (- v ) = 0 .
  • Compatibilidad de la multiplicación escalar con la multiplicación de campo a ( b v ) = ( ab ) v
  • Elemento de identidad de la multiplicación escalar 1 v = v , donde 1 denota la identidad multiplicativa en F.
  • Distributividad de la multiplicación escalar con respecto a la suma vectorial a ( u + v ) = a u + a v
  • Distributividad de la multiplicación escalar con respecto a la suma de campos ( a + b ) v = a v + b v

Entonces Matrix es un objeto de espacios vectoriales, digamos M (n, m) .

Ahora necesitamos entender cuál es la noción de producto interno / producto de punto.

En álgebra lineal, un espacio interno del producto es un espacio vectorial con una estructura adicional llamada producto interno . Esta estructura adicional asocia cada par de vectores en el espacio con una cantidad escalar conocida como el producto interno de los vectores.

Un producto interno induce naturalmente una norma asociada, por lo tanto, un espacio interno del producto también es un espacio vectorial normado. Un espacio completo con un producto interno se llama espacio de Hilbert.

Entonces, la matriz es un objeto del espacio vectorial, digamos M (n, m) (ver arriba) y podemos agregar una estructura adicional llamada norma (Norma (matemáticas)) que sigue una definición de norma. Ejemplo de esta norma sería la norma frobenius (norma Matrix) de (A – B).

De hecho, utilizando las propiedades anteriores, podemos definir espacios equivalentes para objetos de dimensiones infinitas con algunas condiciones de regularidad.

¡¡Espero que esto ayude!!

PD: No soy un experto, pero creo que este es el caso.

Fuente: Gran cantidad de definiciones tomadas de Wikipedia y Análisis funcional introductorio con aplicaciones de Krezig

Respuesta relacionada: ¿Por qué las personas definen espacios interiores de productos, espacios de Hilbert?

Aunque un vector puede parecer simplemente una matriz unidimensional desde la perspectiva del álgebra lineal elemental, hay más que eso. Los vectores generalmente se introducen como objetos en el espacio euclidiano que poseen magnitud y dirección y pueden representarse mediante flechas en un gráfico o mediante conjuntos de números. Las matrices, por otro lado, son transformaciones lineales: transforman vectores en otros vectores pero no son objetos en sí mismos. El producto punto, entonces, solo tiene sentido para los vectores porque su salida determina la longitud de un vector y el ángulo entre dos vectores; Es una propiedad de dos objetos vectoriales, no de dos matrices de transformación.

Más generalmente, los vectores se definen como objetos que pertenecen a un espacio vectorial y las transformaciones lineales son mapas lineales entre espacios vectoriales (el producto de puntos se generaliza a un producto interno). Si observa los vectores y las transformaciones lineales en este sentido más abstracto, puede ver que un vector es una entidad completamente diferente a una transformación lineal a pesar de que los vectores y las matrices euclidianas son bastante similares. Es interesante observar que, según las definiciones más generales de vectores, transformaciones lineales y productos internos, un espacio vectorial / espacio interno del producto podría definirse utilizando matrices con un ancho mayor que uno, aunque el producto de puntos estándar no sería suficiente para el producto interno ya que no produciría un escalar.

Bien ! Primero comencemos preguntándonos qué queremos que sea un “producto de punto”.

Comencemos por lo que sabemos, los vectores en [math] \ mathbb {R} ^ n [/ math], que simplemente pueden verse como matrices de números reales [math] n [/ math]. De esa manera definimos:

[matemáticas] \ vec {a} \ cdot \ vec {b} = \ left (\ begin {smallmatrix} [/ math]

[matemáticas] a_1 \\ [/ matemáticas]

[matemáticas] a_2 \\ [/ matemáticas]

[matemáticas] \ vdots \\ [/ matemáticas]

[matemáticas] a_ {n-1} \\ [/ matemáticas]

[matemáticas] a_n [/ matemáticas]

[matemáticas] \ end {smallmatrix} \ right) \ cdot \ left (\ begin {smallmatrix} [/ math]

[matemáticas] b_1 \\ [/ matemáticas]

[matemáticas] b_2 \\ [/ matemáticas]

[matemáticas] \ vdots \\ [/ matemáticas]

[matemáticas] b_ {n-1} \\ [/ matemáticas]

[matemáticas] b_n [/ matemáticas]

[math] \ end {smallmatrix} \ right) [/ math]

Que es simplemente igual a la suma de los productos término por término:

[matemáticas] \ vec {a} \ cdot \ vec {b} = \ sum_ {i} a_i b_i [/ ​​matemáticas]

Este producto escalar depende, por supuesto, de la base que elijamos, y por definición, la base en la que he escrito estos vectores forma lo que llamamos una base ortogonal, es decir, elijo la base [matemáticas] \ left (e_i \ right ) _i \ in \ left \ {1..n \ right \} [/ math] tal que [math] e_i \ cdot e_j = \ delta_ {ij} [/ math] que significa que el producto de punto entre [math] e_i [/ math] y [math] e_j [/ math] (he dejado caer la notación de flecha aquí, en parte para demostrarle que la noción de producto punto es mucho más general de lo que piensa) es igual a 1 si i = j. Sobre esta base, el vector [math] e_i [/ ​​math] puede representarse como un vector con n filas, donde todas las filas son 0 excepto la fila i que es igual a 1. Puede verificar que mi definición sea coherente.

Entonces, si queremos extrapolar esto, ¿qué queremos que sea un producto de punto?

Está claro que queremos que sea lo que llamamos “bilineal”, lo que significa que, por ejemplo, para todos los vectores [matemática] a, b [/ matemática] y [matemática] c [/ matemática] tengo esa [matemática ] a \ cdot (b + \ lambda c) = a \ cdot b + lambda a \ cdot c [/ math], así como [math] (a + \ lambda b) \ cdot c = a \ cdot c + \ lambda b \ cdot c [/ math]. Esto significa que puedo distribuir el producto punto de manera muy similar a como puedo distribuir un producto. La suma estándar de productos por término cumple con este requisito.

Además, queremos que nuestro producto punto sea simétrico, lo que significa que [math] a \ cdot b = b \ cdot a [/ math].

Un requisito final es que queremos que, si [matemática] a \ neq 0 [/ matemática], entonces [matemática] a \ cdot a> 0 [/ matemática], mientras que, por supuesto, tenga [matemática] 0 \ cdot 0 = 0 [/matemáticas]. Esto significa que nuestro producto punto debe estar “positivamente definido”.

En resumen, un producto escalar o puntual es “una forma bilineal simétrica, definida positivamente”. Simplemente significa que es una función [matemática] f (a, b) = a \ cdot b [/ matemática] que cumple con todas las propiedades que he definido previamente.

¿Ahora podemos construir algo así para las matrices? Sí podemos (pero solo para matrices que tienen la misma dimensión). Para simplificar, solo haré matrices cuadradas, pero es fácil extrapolar a otras matrices.

Si [matemática] A [/ matemática] y [matemática] B [/ matemática] son ​​matrices cuadradas con n filas yn columnas, con coordenadas [matemática] A_ {i, j} [/ matemática] y [matemática] B_ {i , j} [/ math] luego definimos

[matemáticas] A \ cdotB = \ sum_ {i, j} A_ {i, j} B_ {i, j} [/ matemáticas]

Obviamente es simétrico, ya que puedo cambiar A y B en mi fórmula, y obviamente puedo distribuir el producto como lo hice con [math] a \ cdot (b + \ lambda c) [/ math] anteriormente, porque puedo distribuir individualmente cada producto en la suma Lo único difícil es demostrar que está positivamente definido. Sin embargo, para [math] A \ neq 0 [/ math] (donde aquí 0 significa la matriz donde todas las entradas son 0):

[matemáticas] A \ cdot A = \ sum_ {i, j} A_ {i, j} ^ 2> 0 [/ matemáticas] porque es simplemente una suma de términos positivos. ¡Entonces, tenemos un producto de puntos para matrices que verifica todas las propiedades que queremos!

Por cierto, esto también se puede escribir como [matemática] A \ cdot B = Tr (A ^ TB) [/ matemática] donde [matemática] Tr [/ matemática] es la traza, o suma sobre todos los términos diagonales de una matriz , y [matemática] A ^ T [/ matemática] es la transposición de A, es decir, si el término en la fila i y la columna j de A es [matemática] A_ {i, j} [/ matemática] y es el mismo término en la fila j y la columna i para [matemáticas] A ^ T [/ matemáticas].

De hecho, una manera simple de ver esto es que, en lugar de ver esto como un producto de punto entre la matriz, puede verlo como tomar una matriz y escribirla como un vector, juntando todas las columnas en una columna grande, y luego definiendo el producto de punto como sabías cómo hacerlo antes.

Por cierto, ¿recuerdas lo que te dije sobre la base ortogonal? Podemos hacer lo mismo para este producto, definiendo matrices [math] E_ {i, j} [/ math] que es la matriz con [math] 0 [/ math] s en todas partes excepto en la fila i, columna j.

De esta manera tenemos [matemáticas] E_ {i, j} \ cdot E {k, l} = \ delta_ {i, k} \ delta_ {j, l} [/ matemáticas] que es 1 si i = jY k = ly 0 de lo contrario. Esto define una base ortogonal para las matrices, al igual que definimos uno para vectores de dos o tres dimensiones.

De hecho, puede ampliar esta definición a las funciones. Por ejemplo, si considera todas las funciones continuas en el intervalo [matemáticas] [0; 1] [/ matemáticas], entonces es fácil verificar que el producto escalar (punto) definido por:

[math] f \ cdot g = \ int_0 ^ 1 f (x) g (x) \ mathrm {d} x [/ math] es un producto escalar. Nuevamente, lo más difícil de probar es definitivamente positivo, pero si tenemos f diferente de 0

[math] f \ cdot f = \ int_ {0} ^ 1 f (x) ^ 2 \ mathrm {d} x> 0 [/ math] porque estamos integrando una función positiva que no es cero en todas partes. Si piensa en una integral como una suma de Riemann, lo que estamos haciendo nuevamente es sumar los productos término por término de f y g en cada coordenada x.

De hecho, este tipo de producto escalar es lo que le permite definir productos hermitianos para la mecánica cuántica (difiere un poco), lo que le permite calcular las transiciones de probabilidad y otras cosas. De hecho, estoy bastante sorprendido de que un graduado de física como yo haya dado una respuesta falsa que dice que los productos de punto solo se definen en [math] \ mathbb {R} ^ n [/ math]

Entonces, sí, un producto escalar es mucho más general que solo entre dos “vectores”, pero eso también se debe a que un “vector” es algo mucho más general que un “vector de fila” con n coordenadas. Un vector es un elemento de un campo vectorial, que es un conjunto que verifica un cierto conjunto de reglas, que esencialmente dicen que un vector más un vector es un vector. Un producto de puntos se puede definir fácilmente en la mayoría de los campos vectoriales. Como una matriz más una matriz sigue siendo una matriz, puede adivinar que una matriz es, de hecho, un elemento de un campo vectorial y, por lo tanto, es un vector en el verdadero sentido matemático. ¡Bienvenido al hermoso mundo del álgebra lineal (real)!

Generalmente, el producto punto se define en los vectores como una forma de multiplicar dos vectores y obtener un escalar como resultado.

Las matrices, por otro lado, no son vectores en absoluto. Son mnemónicos que representan transformaciones lineales de un espacio vectorial a otro.

Entonces, si lo piensas bien, las matrices no son generalizaciones de vectores a dimensiones superiores. Son objetos completamente diferentes.

Por lo tanto, lo que se aplica a los vectores no necesita aplicarse a las matrices.

PD: Me encantaría que alguien me corrigiera si tengo algo mal.

Usamos el producto punto de dos matrices todo el tiempo. Se define exactamente de la misma manera que para los vectores, pero se toma el producto sobre todas las entradas en las matrices. Es un problema común realizar descomposiciones ortogonales de una matriz con respecto a una familia de matrices ortogonales y, por supuesto, el producto de punto está involucrado.

El producto punto se define para matrices cuadradas reales y complejas. Cualquier función bi / sesqui-lineal en los reales / complejos que sea positiva definida y “simétrica” ​​es un producto puntual. Las matrices cuadradas son un espacio vectorial real / complejo. Entonces todo está bien.