Esto es bastante común en varios modelos, generalmente donde hay algún tipo de “capa oculta”, variable latente o datos faltantes. Dependen de identificar restricciones para la estimación. Dos ejemplos clásicos son los casos de Heywood en el análisis factorial o una variación o covarianza que viola la desigualdad de Cauchy-Schwartz en un modelo mixto lineal.
Considere el modelo de factor lineal, que es una regresión múltiple multivariada con restricción de dimensionalidad. Ha implicado matriz de covarianza:
[matemáticas] \ Sigma = \ Lambda \ Phi \ Lambda ^ {‘} + \ Theta [/ matemáticas],
donde [math] \ Lambda [/ math] es la matriz de cargas de factores (estos son pesos de regresión), [math] \ Phi [/ math] es la matriz de covarianza de los factores y [math] \ Theta [/ math] es la matriz de covarianza de unicidad o errores.
- Dadas las matrices A y B, ¿cómo resuelvo C en la ecuación A = BC usando un método no numérico?
- ¿Cuáles son los mejores recursos para el análisis numérico distribuido / algoritmos de matriz?
- ¿Qué biblioteca de Python es mejor para cálculos simples de matriz dispersa, PySparse o SciPy?
- Álgebra lineal: ¿Cuál es la mejor manera de calcular vectores propios para una matriz grande (~ 6000 x 6000)?
- ¿Cuál es la prueba más clara del teorema espectral?
En el análisis factorial, debe asumir que las puntuaciones de los factores son independientes de los errores, lo que permite la descomposición aditiva que se muestra arriba. (Esta suposición no es tan extraña, ya que es solo una extensión de la suposición habitual de errores independientes en la regresión lineal. Todavía hay otras restricciones de identificación). Esto puede no ser correcto empíricamente. Incluso si es así, si de alguna manera atasca la especificación del modelo, la estructura del error es el único lugar para impulsar la especificación errónea, y ahí es donde terminará.
Si los datos contradicen seriamente estas restricciones de identificación o si el modelo está mal especificado de una manera no trivial, puede terminar haciendo que el estimador de ML vaya a un punto singular o una solución de límite, y eso puede llevarlo a tener una implicación no PSD Matriz de covarianza. No es raro que la [matemática] \ Theta [/ matemática] estimada no sea PSD, particularmente en muestras pequeñas.
Esta es una de las razones por las cuales el NM no regularizado puede ser muy desventajoso.