¿Cuál es un ejemplo muy simple de utilizar la factorización matricial en el aprendizaje automático, exactamente en los sistemas de recomendación?

El algoritmo del que está hablando es SVD (Descomposición de valor singular).
Hay un teorema, que cualquier matriz se puede representar como una multiplicación de matrices:

[matemáticas] A = U \ veces \ Sigma \ veces V ^ T [/ matemáticas]
Donde [math] \ Sigma [/ math] es una matriz diagonal (todos los elementos, excepto los de la diagonal principal, son ceros) y U y V son ortogonales entre sí.

Ahora, ¿qué importancia tiene para las recomendaciones? Si sustituye algunos de los elementos que no son cero en [math] \ Sigma [/ math] con ceros, obtendrá una buena aproximación de la matriz [math] A [/ math] (en sentido de error cuadrático medio, que es exactamente lo que nosotros necesitar).

Ahora, el sistema de recomendación es básicamente una pieza de software que proporciona una aproximación de la matriz, que sería muy posible en ciertas situaciones (por ejemplo, pares esperados o artículo-cliente, que se puede escribir como matriz artículo-cliente). Entonces, la idea general es encontrar una matriz, que estaría lo suficientemente cerca de SVD. Se puede lograr con el método de mínimos cuadrados alternos. Es solo una idea general, y recomiendo leer más, por ejemplo:

[1410.2596] Terminación de matriz y SVD de bajo rango a través de mínimos cuadrados alternos rápidos: la matemática es difícil, pero satisfactoria.

En una página puede tener el ejemplo de factorización matricial más simple y suficiente contexto para que sea útil:

Journal of Machine Learning Research 13 (2012) 2699-2703
por Lee, Sun y Lebanon
en PREA: Algoritmos de recomendación personalizados …