¿Cuál es la diferencia entre una matriz y un operador lineal?

Un operador lineal es una función lineal de un espacio vectorial a sí mismo. En las anotaciones, dado un espacio vectorial [matemático] V [/ matemático], un operador lineal es una función [matemática] T: V \ rightarrow V [/ matemático] que satisface [matemático] T (au + bv) = a (Tu ) + b (Tv) [/ math] para todos [math] a, b [/ math] en el campo subyacente y los vectores [math] u, v [/ math].

Una matriz con [matemática] m [/ matemática] filas y [matemática] n [/ matemática] columnas sobre un campo [matemática] F [/ matemática] es una función del conjunto de todos los pares ordenados [matemática] (i, j ) [/ math] de enteros en el rango [math] 1 \ leq i \ leq m, 1 \ leq j \ leq n [/ math] a [math] F [/ math]. Esta función generalmente se escribe en forma de cuadrícula como puede ver en la página wiki: http://en.wikipedia.org/wiki/Mat….

La conexión : dado un espacio vectorial de dimensión finita [matemática] n [/ matemática] y una base, para cada operador lineal existe una matriz única de filas [matemática] n [/ matemática] y [matemática] n [/ math] columnas de tal manera que el valor del operador en cualquier vector [math] u [/ math] se da multiplicando esta matriz a las coordenadas de [math] u [/ math] con respecto a la base dada, y viceversa. Por lo tanto, una vez que fija una base de un espacio vectorial de dimensiones finitas, un operador lineal puede verse como una matriz cuadrada sobre el campo subyacente, lo que a veces es útil. Consulte la respuesta de Justin Rising para ver un ejemplo de dónde difieren las nociones.

Editar: Vea la respuesta de Debraj para conocer otras formas en que las matrices pueden aparecer. Es importante tener en cuenta que una matriz en sí misma no es más que una matriz (o una función como se discutió anteriormente). Además, el conjunto de índices de la matriz ni siquiera necesita constar de enteros ni es necesario que los elementos provengan de un campo.

Piénselo de esta manera: el operador lineal es un objeto abstracto que satisface ciertas propiedades de linealidad, y puede estudiarse perfectamente en este contexto. Sin embargo, esto no arroja ninguna idea sobre cuestiones de cómputo, al menos no generalmente.

En dimensiones finitas, un operador lineal puede estar asociado a una matriz correspondiente (una vez que haya fijado una base). Esta matriz no es más que una fórmula que le dice qué hace el operador lineal a los vectores expresados ​​en la base elegida. Ofrece un punto de vista alternativo sobre operadores lineales que puede ser más útil en ciertos contextos.

Para agregar a la respuesta de Anurag Bishnoi, primero, las matrices son solo matrices rectangulares de elementos de un campo (o un anillo) que se pueden usar para representar objetos en Álgebra Lineal. Ya se ha dado el ejemplo de un mapa lineal representado por una matriz, las bases dadas de los espacios vectoriales de origen y destino. Pero esta no es la única forma en que se pueden usar las matrices. Una forma bilineal [matemática] f: V \ veces V \ a F [/ matemática] también se puede representar mediante una matriz. Para hacer esto, elija una base
[matemáticas] \ {e_i \} [/ matemáticas]
del espacio vectorial [matemática] V [/ matemática], y deje que [matemática] M [/ matemática] sea la matriz que tiene [matemática] f (e_i, e_j) [/ matemática] en la ranura en [matemática] i [/ math] -th row y [math] j [/ math] -th column. Observe que esta matriz [matemática] M [/ matemática] no tiene nada que ver con un mapa lineal entre dos espacios vectoriales, sino que representa una forma bilineal (un mapeo desde el producto de dos espacios vectoriales a los escalares que es lineal en cada vector factorial espacio.)

Hay otras matrices que surgen en matemáticas que no tienen nada que ver con los mapas lineales. Por ejemplo, dada una variable aleatoria con valor vectorial [math] (X_1, X_2, \ dots, X_n) [/ math], la matriz cuya [math] (i, j) [/ math] -th entrada es la covarianza de [math] X_i [/ ​​math] y [math] X_j [/ math] se llama matriz de dispersión de la variable aleatoria del vector y es importante en la teoría de la probabilidad.

Por lo tanto, es completamente engañoso decir (Justin) que una matriz es un tipo de operador lineal.

Una transformación lineal es una función arbitraria entre espacios vectoriales [matemática] f: V \ rightarrow W [/ matemática] que satisface [matemática] f (ax + by) = a (f (x)) + b (f (y)) \ para todos, a \ b en F [/ matemática], [matemática] x, y \ en V [/ matemática]. Aquí [math] F [/ math] se refiere al campo (común) asociado con [math] V [/ math] y [math] W [/ math].

Considere el caso de que [matemática] f [/ matemática] es un mapa desde un espacio dimensional [matemático] n [/ matemático] a un espacio dimensional [matemático] m [/ matemático], con base para [matemático] B_V = \ { v_1, …, v_n \} [/ matemática] para [matemática] V [/ matemática] y [matemática] B_W = \ {w_1, … w_m \} [/ matemática] para [matemática] W [/ matemática]. La columna [matemática] j [/ matemática] en la representación matricial de [matemática] f [/ matemática] lleva los coeficientes [matemática] m [/ matemática] de [matemática] f (v_j) [/ matemática] expandida en el base [matemáticas] B_W [/ matemáticas]. Por lo tanto, la representación matricial de un operador lineal se define inequívocamente cuando [math] V [/ math] y [math] W [/ math] son ​​de dimensión finita y las bases están preespecificadas.

La conveniencia es que podemos manipular operadores lineales refiriéndonos a sus contrapartes matriciales: por ejemplo, la composición de operadores lineales [math] f [/ math] y [math] g [/ math] es equivalente al producto [math] M_fM_g [ / math], y el inverso de [math] f [/ math] es [math] M_f ^ {- 1} [/ math], suponiendo que [math] f [/ math] es invertible para empezar. (Es decir, las columnas de [math] M_f [/ math] son ​​linealmente independientes). Tenga en cuenta que [math] M_f [/ math] aquí es la representación matricial del operador lineal [math] f [/ math].

Tenga en cuenta que no es necesario suponer que [matemática] V = W [/ matemática] para derivar una representación matricial, como lo han hecho algunas de las otras respuestas.

En resumen, una matriz es un tipo de operador lineal cuyo dominio y rango son espacios vectoriales de dimensiones finitas. El mapa [math] f \ rightarrow \ frac {\ mathrm {d} f} {\ mathrm {d} x} [/ math] en el subespacio diferenciable de [math] \ mathbb {R} \ rightarrow \ mathbb {R} [/ math] es un ejemplo simple de un operador lineal que no es una matriz.

Una matriz es una representación de un operador lineal en una base específica. Esto generalmente solo tiene sentido para espacios de dimensiones finitas (es decir, aquellos con una base de longitud finita).

Un operador lineal es más general (existen trivialmente para espacios de dimensiones infinitas) y también de base independiente.

(Como señala Debraj Chakrabarti, existen nociones de matrices infinitas y matrices para operadores en espacios de dimensiones infinitas. Muchas de estas construcciones, pero no todas, requieren el axioma de elección, y además muchas de ellas no se comportan como “normales” matrices: el álgebra lineal tradicionalmente trata con espacios de dimensiones finitas y evita problemas analíticos de convergencia al definir operaciones matriciales, por lo que de otra manera mantendré mi respuesta igual).

El tipo de respuesta que está buscando no está claro, por lo que ofreceré una alternativa menos técnica. La pregunta también me recuerda tratar de entender qué es un tensor, y definitivamente necesitaba el concepto de alto nivel y seguí obteniendo los detalles rigurosos.

Una matriz es solo una forma de representar un conjunto de números. Tiene sus propias reglas matemáticas y, en general, incluye tamaños Mx1, Nx1 (vectores) y 1 × 1 (números regulares o escalares). Las matemáticas significan que las matrices que actúan sobre vectores se comportan linealmente (por lo tanto, álgebra lineal). T (au + bv) = aT (u) + bT (v). Con T siendo una matriz, los vectores u y v, y los escalares a y b.

Un operador es un conjunto de números utilizados para representar una acción. Una entrada se transforma en una salida. T {x} = y. Esto puede ser tan simple como escalar o complicado como la Transformada de Fourier. Si es lineal, entonces sigue la misma regla que las matrices: T {ax + by} = aT {x} + bT {y}.

Cuando representa una operación lineal con una matriz, son equivalentes. Es un operador lineal y una matriz (matriz de rotación). Pero un operador lineal podría ser una función (Transformada de Fourier) y una matriz podría ser una entidad (matriz de covarianza).

Básicamente, una matriz es un tipo de representación mientras que un operador es un tipo de acción. Es como preguntar dónde “postre” y “fruta” son equivalentes y dónde difieren.

Si nos limitamos a operadores lineales en el espacio lineal dimensional finito V, luego fijamos una base de V, entonces hay una biyección uno a uno f entre L (V) y Mat (n, n) que preserva las operaciones del operador lineal y operaciones matriciales, de modo que

1, f es en sí lineal

f (T + S) = f (T) + f (S)

f (cT) = cf (T)

2, composición del operador lineal versus multiplicación de matriz

f (TS) = f (T) * f (S)

combinado con otro mapeo uno a uno de V a R ^ n

def coord (v) = [c1, c2,… cn] si v = c1 * e1 + c2 * e2 +… cn * en, aquí {ei} es la base fija mencionada anteriormente

entonces f y coord tienen esta propiedad que hace que la operación lineal sea “igual que” la multiplicación de matrices con un vector:

coord (Tv) = f (T) * coord (v)

y finalmente, a partir de una matriz n * n A, podemos inducir automáticamente un operador lineal en L (R ^ n), es decir, por v -> A * v

Dado que cada espacio vectorial dimensional finito es isomorfo a R ^ n, entonces es cierto que L (V) como espacio vectorial es isomorfo a L (R ^ n). Por otro lado, cada operador lineal en L (R ^ n) es inducido por una matriz determinada por la multiplicación izquierda de esta matriz.