¿Cuál es la dimensionalidad del espacio, en el que se realiza la clasificación lineal?

Por lo general, la dimensionalidad significa el número de vectores de base independientes. Si se eligen bien, son las coordenadas de una matriz. En el contexto de los métodos ML y kernel, el espacio de características [math] \ phi (x) [/ math] y el número de coordenadas que tiene es lo que generalmente denominamos “dimensiones”. Entonces, para un cúbico, la dimensión es 3 + 1 = 4 (el molesto + 1 proviene del desplazamiento).

Para una respuesta más profunda, a veces se puede pensar en las funciones como vectores (ver espacios de vectores). En este caso, un espacio de funciones tiene una base de la misma manera que los vectores. Entonces puede agregar dos funciones y obtener otra función del mismo tipo. Para un cúbico, los bloques de construcción (vectores de base) son [matemática] 1, x, x ^ 2, x ^ 3 [/ matemática], claramente si agrega dos cúbicos aún obtendrá un cúbico. Puede apilar los coeficientes en una matriz y ahora las funciones se comportan como vectores dimensionales finitos, de tamaño 4 (es decir, está compuesto por 4 bloques de construcción diferentes que definen este cúbico). Para su caso específico, la función de función [math] \ phi (x) [/ math] es otra cosa, probablemente algo así como [math] \ phi (x) = [[/ math] 1 [math], x, y, xy, yx, … y ^ 3, x ^ 3] [/ math] con algunas constantes para asegurarse de que el producto interno defina K (x, y). En otras palabras, en Kernel Methods decimos que una función tiene una dimensión alta si el espacio de funciones que construye el predictor tiene una dimensión alta. Un ejemplo típico de una dimensión infinita es el núcleo gaussiano que se puede representar como una suma de muchos monomios (el producto interno representado por el producto y la suma de estos).

Si desea aún más detalles y explicaciones abstractas, puede consultar en línea las conferencias sobre métodos del núcleo de los MIT 9.520 / 6860: Curso MIT 9.520 – Teoría y aplicaciones del aprendizaje estadístico, otoño de 2015, esencialmente las conferencias 4 y 5.

¡Espero eso ayude!