Mira las ecuaciones integrales de Fredholm y Volterra. En este caso, uno tiene una ecuación de la forma
[matemáticas] g (t) = \ int_a ^ b ds K (s, t) f (s) [/ matemáticas],
en el cual [math] g [/ math] y [math] K [/ math] son conocidos, y uno desea resolver para [math] f. [/ math] Mirando la ecuación, uno puede ver que este es un análogo continuo de una multiplicación de matriz-vector, y la solución involucrará un análogo de la inversión de la matriz representada por el núcleo [math] K [/ math] . Sin embargo, debido a que la integral involucra sumas y límites infinitos, gran parte de la teoría de Fredholm en realidad implica colocar condiciones en [matemáticas] K [/ matemáticas] para que tanto la ecuación original esté definida como la solución.
Una ecuación de Volterra es casi la misma, pero el límite superior de la integral no es una constante independiente, sino la variable [math] t [/ math], es decir
- ¿Cuáles son algunas aplicaciones de la ecuación de Bohr?
- ¿Cuál es la diferencia entre una derivada parcial y una derivada total?
- ¿Cómo resolverías ecuaciones simultáneas no homogéneas con 12 variables?
- Cómo comprender las ecuaciones diferenciales parciales, el cálculo vectorial y el álgebra lineal para que me vuelva bueno con los métodos avanzados de elementos finitos
- ¿Por qué la ecuación f = ma no es lineal?
[matemáticas] g (t) = \ int_a ^ t K (s, t) f (s) ds. [/matemáticas]
También hay ecuaciones integrodiferenciales, pero estas tienen una estructura teórica completamente diferente, más similar a la de las ecuaciones diferenciales de las que se generalizan.