Echando un vistazo al libro, se basa en gran medida en lo siguiente:
- cálculo de vector de primer año de la universidad con ecuaciones diferenciales básicas
- teoría de probabilidad universitaria de primer año (probabilidad condicional)
- teoría del circuito eléctrico (del electromagnetismo AP de la escuela secundaria para circuitos “RC” o física universitaria con cálculo)
- álgebra lineal (matemática vectorial y matricial, especialmente vectores básicos y vectores propios)
- estadísticas básicas (principalmente solo distribuciones gaussianas y la idea de distribuciones de probabilidad en general)
No hay nada específico sobre las matemáticas para la neurociencia. La parte de álgebra lineal, cálculo, probabilidad y estadística se encuentra en el excelente libro de Christopher Bishop, Pattern Recognition & Machine Learning . (El libro de Bishop se basa en matemáticas un poco más avanzadas que Dayan y Abbott, pero es el mismo dominio matemático). La teoría del circuito eléctrico sería la única parte adicional necesaria de 2 a 4 capítulos de un libro de texto de electromagnetismo.
Tanto este libro como el libro de Bishop tienen 3 “capítulos de apéndice” que proporcionan una revisión vertiginosa de todos los conceptos matemáticos clave. Recomendaría mirar estos capítulos, y si se necesitaran más matemáticas para comprenderlos, busque los términos clave en wikipedia (las matemáticas son bastante buenas allí).
- ¿Qué significa físicamente el determinante de una matriz? ¿Cómo lo visualizo?
- ¿Cuál es el número esperado de sondeo uniforme para una búsqueda fallida?
- ¿Cuál es la diferencia entre un vector y una matriz?
- ¿Qué es una hipermatriz?
- Cómo encontrar los parámetros del controlador PID de orden fraccional para un sistema no lineal