Yo diría que la teoría de la probabilidad por un margen delgado a moderado. Es un día raro en Machine Learning en el que no está maximizando una probabilidad de registro, utilizando la regla de Bayes o tratando con gaussianos.
Por supuesto, el álgebra lineal está siempre presente porque amamos nuestras matrices y productos de punto. Si está tratando con algo como PCA, estará trabajando con vectores propios y valores propios. Si te gustan los sistemas de recomendación, trabajarás con factorizaciones matriciales como la descomposición de Cholesky. Si realmente te involucras en las rutinas de optimización, habrá muchas Hesse y transformaciones de matriz conjugada.
Pero en general, creo que la teoría de la probabilidad surge con más frecuencia y es algo en lo que realmente tiene que pensar en lugar de tratarlo como una herramienta computacional. También diré que no creo que ML profundice en la teoría de la probabilidad o en el álgebra lineal y si tiene un historial decente en estos de cualquier campo STEM, probablemente le irá bien.
Para el registro, soy un estudiante de maestría en la Universidad de Toronto, especializado en Machine Learning. Tal vez mi percepción está sesgada respecto a lo que es más útil a este nivel.
- ¿Cuáles son las cosas comunes en las clases de Álgebra 1 que los estudiantes no entienden?
- ¿Cuál es la interpretación geométrica de la traza de una matriz?
- Si la suma de dos vectores unitarios es también un vector unitario, ¿cuál es la magnitud de su diferencia y ángulo entre los dos vectores unitarios dados?
- Cómo calcular [matemáticas] \ left [\ vec {x} \ right] _b [/ math] a partir de [math] \ left [\ vec {x} \ right] _E [/ math]. Tenga cuidado de que [matemáticas] \ left [\ vec {x} \ right] _E = \ vec {x} [/ math]
- Cómo demostrar que [matemáticas] \ det A_ {n + 2} = a \ det A_ {n + 1} + b \ det A_n [/ matemáticas] para la matriz A