En una búsqueda en Google de 5 minutos, encontré la siguiente página con muchos conceptos:
Teoría de la información algorítmica
Al buscar algunos de los conceptos, STATS 376A (teoría de la información) / EE 376A de Stanford cf. Cursos de exploración de la Universidad de Stanford
ESTADÍSTICAS 376A: Teoría de la información (EE 376A)
- ¿Hay alguna diferencia entre los siete campus de polimi? Hay alguno mejor?
- ¿Cuál es la tarifa del albergue de la encantadora universidad profesional? ¿Incluye cargos por desorden o no?
- Tengo dos opciones para M.tech (CS) IIIT B y IIIT D. ¿Cuál debo elegir?
- ¿Debo tomar un préstamo de $ 200,000 para asistir a NYU New York?
- ¿Cómo se compara Oxford con el campus principal de emory?
Las ideas fundamentales de la teoría de la información. Entropía y aleatoriedad intrínseca. Compresión de datos hasta el límite de entropía. Codificación Huffman. Codificación aritmética. Capacidad del canal, el límite de comunicación. Canales gaussianos. Kolmogorov complejidad. Propiedad de equipartición asintótica. Teoría de la información y juegos de azar Kelly. Aplicaciones a la comunicación y compresión de datos. Requisito previo: EE178 o STATS 116, o equivalente.
Términos: Ganar | Unidades: 3 | Calificación: carta o crédito / sin crédito
También:
ESTADÍSTICAS 231: Teoría estadística del aprendizaje (CS 229T)
(Igual que STATS 231) ¿Cómo formalizamos lo que significa que un algoritmo aprenda de los datos? Este curso se enfoca en desarrollar herramientas matemáticas para responder esta pregunta. Presentaremos varios algoritmos de aprendizaje comunes y probaremos garantías teóricas sobre ellos. Los temas incluyen aprendizaje en línea, métodos de kernel, límites de generalización (convergencia uniforme) y métodos espectrales. Prerrequisitos: Una sólida base en álgebra lineal y teoría de probabilidad, estadística y aprendizaje automático (STATS 315A o CS 229). La optimización convexa (EE 364a) es útil pero no es necesaria.
Términos: Ganar | Unidades: 3 | Calificación: carta o crédito / sin crédito
MIT tiene esta clase (6.441, Teoría de la información), por ejemplo: http://web.mit.edu/6.441/spring0…
Teoría de la información
Ray Solomonoff falleció hace unos 6 años, pero enseñó un poco en el MIT hace unos 10 años: Probabilidad de algoritmo e inteligencia artificial
También encontré este artículo de Tenenbaum (MIT) y Griffiths (Stanford): http://web.mit.edu/cocosci/Paper…
El documento enumera su información de contacto, por lo que trataría de preguntarles dónde sugerirían buscar cursos.