Dadas las matrices A y B, ¿cómo resuelvo C en la ecuación A = BC usando un método no numérico?

De manera más general, podemos definir una familia de soluciones parametrizadas por lambda

Esto se llama regularización de Tikhonhov:
http://en.wikipedia.org/wiki/Tik…

y ha sido estudiado recientemente y ampliamente por Smale (el ganador de la Medalla Fields)
http://www.ams.org/notices/20030…

Obviamente, esta es una solución formal que requiere un solucionador numérico para obtener valores para C.

Esto puede generalizarse agregando más parámetros ajustables (es decir, una matriz completa en lugar de solo lambda) o realizando la factorización de la matriz (es decir, SVD) en
Esto también se puede resolver mediante la teoría efectiva del operador, la regresión lineal bayesiana, etc.

Si [math] B [/ math] tiene rango completo / es invertible, puede resolver
[matemáticas] C = B ^ {- 1} A [/ matemáticas].

De lo contrario, la aproximación de mínimos cuadrados se obtiene multiplicando a la izquierda [matemáticas] A [/ matemáticas] con el pseudoinverso:
[matemática] C = (B ^ TB) ^ {- 1} B ^ TA [/ matemática].

Por solución algebraica, ¿quieres decir algo que puedes hacer a mano? Si es así, para complementar la respuesta del usuario de Quora, puede encontrar el inverso de la matriz B realizando una eliminación gaussiana (¡como en la escuela secundaria!) De B y la matriz de identidad:

http://en.wikipedia.org/wiki/Gau

Solo para ampliar las respuestas anteriores, recuerde que en este caso las matrices son solo una forma conveniente de escribir un sistema de ecuaciones. Sea [math] A [/ math] una matriz de n por n y suponga que [math] C [/ math] es (s by n) (So
[matemáticas] B [/ matemáticas] es n por s). La ecuación [matemáticas] A = BC [/ matemáticas] es simplemente una abreviatura de las ecuaciones lineales [matemáticas] n ^ 2 [/ matemáticas]

[matemáticas]
A_ {i, j} = \ sum_k B_ {i, k} C_ {k, j}
[/matemáticas]

en las variables [math] ns [/ math] correspondientes a elementos de [math] C [/ math].
Un poco de álgebra te permitirá convertir esto en el estándar
forma para ecuaciones lineales [matemáticas] a = Mx [/ matemáticas] (ver más abajo). Ahora, como han dicho otros, simplemente puede aplicar la Eliminación Gaussiana a [math] M [/ math] para ver si puede calcular la solución.

Para calcular la matriz [matemática] M [/ matemática], puede usar lo siguiente
identidad:

[matemáticas] vec (XYZ) = (Z ^ T \ otimes X) vec (Y) [/ matemáticas]

donde [math] vec [/ math] asigna una matriz al vector con columnas apiladas
y [math] \ otimes [/ math] es el producto Kronecker. Ajuste
[matemáticas] X = B, Y = C, Z = I [/ matemáticas] ves que
[matemáticas] M = I \ otimes B [/ matemáticas]. Entonces el sistema lineal se convierte
[matemáticas] vec (A) = M vec (C) [/ matemáticas]