¿Por qué es [matemáticas] e ^ {i \ theta} = \ cos (\ theta) + i \ sin (\ theta) [/ math]?

La prueba de la serie Taylor es simple y directa, pero quería dar una prueba alternativa para esta afirmación. Curiosamente, hice esto con algunos de mis estudiantes de Calc I hace solo dos semanas. (No estaba planeando hacer esto, pero accidentalmente tropezaron con eso, así que seguí adelante).

Solo estaban aprendiendo sobre ecuaciones diferenciales, y estaban tratando de encontrar soluciones a [matemáticas] y ” + y = 0 [/ matemáticas]. Basándose en algunos otros ejemplos que habían hecho, supusieron que la respuesta debería ser [matemáticas] e ^ {kx} [/ matemáticas] para algunas [matemáticas] k [/ matemáticas]. Les dije que lo intentaran.

Bueno, si [matemáticas] y = e ^ {kx} [/ matemáticas], entonces [matemáticas] y ” = k ^ 2 e ^ {kx} [/ matemáticas], entonces

[matemática] y ” + y = \ izquierda (k ^ 2 + 1 \ derecha) e ^ {kx} = 0 [/ matemática]

[matemáticas] \ por lo tanto k ^ 2 + 1 = 0 [/ matemáticas]

[matemáticas] \ por lo tanto k = \ pm i [/ matemáticas].

Esto fue muy sorprendente para ellos: se sintieron tentados a decir que no había soluciones (al menos, no de esta forma). Les dije que pensaran en otras funciones básicas que conocían. Después de un poco de insistencia, se dieron cuenta de que

[matemáticas] \ frac {d ^ 2} {dx ^ 2} \ sin (x) = – \ sin (x) [/ matemáticas]

[matemáticas] \ frac {d ^ 2} {dx ^ 2} \ cos (x) = – \ cos (x) [/ matemáticas],

y entonces [math] y = \ sin (x) [/ math] y [math] y = \ cos (x) [/ math] fueron ambas soluciones.

En este cruce, señalé que si [matemática] y_1, y_2 [/ matemática] eran soluciones para [matemática] y ” + y = 0 [/ matemática], entonces [matemática] c_1 y_1 + c_2 y_2 [/ matemática] también sería una solución, ya que

[matemáticas] (c_1 y_1 + c_2 y_2) ” + c_1 y_1 + c_2 y_2 = c_1 y_1 ′ ‘+ c_2 y_2 ′’ + c_1 y_1 + c_2 y_2 = [/ matemáticas]

[matemáticas] = c_1 (y_1 ′ ‘+ y_1) + c_2 (y_2 ′’ + y_2) = c_1 \ cdot 0 + c_2 \ cdot 0 = 0 [/ math].

Entonces, esto significaba que [matemática] A \ sin (x) + B \ cos (x) [/ matemática] siempre sería una solución a esta ecuación diferencial. Sin embargo, esta fue una noticia muy emocionante, ya que es un teorema general sobre [matemática] n [/ matemática] de orden, ecuaciones diferenciales lineales que existen [matemática] n [/ matemática] soluciones linealmente independientes que cualquier otra solución puede ser escrito como una combinación lineal de esos.

En otras palabras, cualquier solución a [math] y ” + y = 0 [/ math] debe tener la forma [math] A \ sin (x) + B \ cos (x) [/ math].

Sin embargo, sabemos que [math] e ^ {ix} [/ math] es una solución. Por lo tanto, queda por determinar cuáles son las constantes [matemáticas] A, B [/ matemáticas]. Vemos eso

[matemáticas] 1 = e ^ {i0} = A \ sin (0) + B \ cos (0) = B [/ matemáticas]

y

[matemáticas] \ left. \ frac {d} {dx} (e ^ {ix}) \ right | _ {x = 0} = \ left.ie ^ {ix} \ right | _ {x = 0} = i = [/ matemáticas]

[matemática] \ left. \ frac {d} {dx} \ left (A \ sin (x) + B \ cos (x) \ right) \ right | _ {x = 0} = \ left.A \ cos ( x) – B \ sin (x) \ right | _ {x = 0} = A [/ math].

Al poner todo esto juntos, vemos que

[matemáticas] e ^ {ix} = \ cos (x) + i \ sin (x) [/ matemáticas].

En lugar de probar la fórmula exacta que, como ya se mencionó, puede derivarse de manera mundana usando una expansión en serie, me gustaría dar una descripción más cualitativa de las cosas elevadas a poderes imaginarios y por qué oscilan en lugar de crecer / decaer.

Primero veamos la versión real de esta ecuación:

[matemáticas] e ^ {\ pm x} [/ matemáticas]

Esto es en realidad dos ecuaciones diferentes y, dependiendo del signo delante de [matemáticas] x [/ matemáticas], veremos un comportamiento muy diferente. En el caso negativo, esta función decaerá, acercándose cada vez más a cero a medida que aumenta [math] x [/ math]. En el caso positivo, esta función explota, yendo al infinito a medida que aumenta [math] x [/ math]. Podemos ver esto al observar las derivadas de estas funciones: la primera derivada * de la función negativa tiene el signo opuesto de la función misma, mientras que la derivada de la función positiva tiene el mismo signo. Las segundas derivadas, sin embargo, son el mismo signo que la función original (porque [matemáticas] (- 1) ^ 2 = 1 ^ 2 = 1 [/ matemáticas]).

Ahora introduzcamos el exponencial imaginario. Cuando elevamos al cuadrado [math] i [/ math] ahora obtenemos un número negativo en lugar de un positivo. Mirando la segunda derivada, entonces, ahora tenemos algo con un signo opuesto al de la función original. Esto es exactamente lo que necesitamos para la oscilación. Considere las siguientes dos ecuaciones:

[matemáticas] \ ddot {y} = y [/ matemáticas]

[matemáticas] \ ddot {y} = – y [/ matemáticas]

El primero es lo que teníamos inicialmente. En ese caso, si [math] y [/ math] fue positivo, entonces la aceleración (para dar alguna interpretación física a esta ecuación) funcionaría para reforzar esta positividad, ralentizando el sistema si tiene velocidad negativa y acelerándolo si tiene velocidad positiva En el segundo caso, un valor positivo para [matemática] y [/ matemática] conduce a una aceleración negativa que ahora se opone a esta positividad, disminuyendo la velocidad hasta que el sistema esté en una posición negativa, después de lo cual la aceleración será positiva y el ciclo se repetirá en la dirección opuesta.

Dado que los exponenciales imaginarios resultan en oscilación, no debería ser una gran sorpresa esperar que intervengan seno y coseno. Como se mencionó, si está más interesado en saber por qué esta fórmula exacta es lo que es en lugar de por qué los números imaginarios conducen a oscilaciones, la expansión de la serie es el camino más directo a esto. Si no está completamente satisfecho con esa derivación, puede ser útil convertir primero las dos funciones exponenciales reales en seno y coseno hiperbólicos y luego comparar esas funciones con sus contrapartes oscilatorias:

[matemáticas] \ sinh (x) = \ frac {e ^ xe ^ {- x}} {2} [/ matemáticas]

[matemáticas] \ cosh (x) = \ frac {e ^ x + e ^ {- x}} {2} [/ matemáticas]

[matemáticas] \ sin (x) = \ frac {e ^ {ix} -e ^ {- ix}} {2i} = – i \ sinh (ix) [/ matemáticas]

[matemáticas] \ cos (x) = \ frac {e ^ {ix} + e ^ {- ix}} {2} = \ cosh (ix) [/ matemáticas]

Si observa las gráficas para estas dos funciones, puede ver que tienen algunas características similares a las del seno y el coseno cerca de [matemáticas] x = 0 [/ matemáticas] (p. Ej. Rareza / uniformidad, [matemáticas] y [/ matemáticas] -intercepción, pendiente) a pesar de que rápidamente comienzan a crecer exponencialmente en lugar de oscilar debido a la dirección en que cambian sus pendientes.


* Para aquellos que no están familiarizados con el cálculo, la primera derivada de una función es otra función que proporciona la tasa de cambio de la primera función en cada punto de su dominio. Si la primera derivada es negativa, entonces la función está disminuyendo, mientras que si es positiva, la función está aumentando. Del mismo modo, la segunda derivada le dice cómo está cambiando la primera derivada (y así sucesivamente).

He visto muchas pruebas de esto, pero tengo un favorito personal:

Deje [math] z = \ cos {\ theta} + i \ sin {\ theta} [/ math]. Tomemos la derivada con respecto a [math] \ theta [/ math]:

[matemáticas] z ‘= – \ sin {\ theta} + i \ cos {\ theta} \ tag * {} [/ matemáticas]

[matemáticas] z ‘= i ^ 2 \ sin {\ theta} + i \ cos {\ theta} \ tag * {} [/ matemáticas]

[matemáticas] z ‘= (\ cos {\ theta} + i \ sin {\ theta}) i = zi \ tag * {} [/ matemáticas]

Reorganizando:

[matemáticas] \ frac {z ‘} {z} = i \ tag * {} [/ matemáticas]

Integrando ambos lados con respecto a [math] \ theta [/ math]:

[matemáticas] \ ln | z | + C_1 = i \ theta + C_2 \ tag * {} [/ matemáticas]

[matemáticas] \ ln | z | = i \ theta + C_3 \ tag * {} [/ matemáticas]

[matemáticas] | z | = C_4e ^ {i \ theta} \ tag * {} [/ matemáticas]

[matemáticas] z = C_4C_5e ^ {i \ theta} = Ce ^ {i \ theta} \ tag * {} [/ matemáticas]

Donde [matemáticas] | C_5 | = 1 [/ matemáticas].

Sustituyendo en la definición original de [math] z [/ math]:

[matemáticas] Ce ^ {i \ theta} = \ cos {\ theta} + i \ sin {\ theta} \ tag * {} [/ matemáticas]

¡Estamos tan cerca! Solo necesitamos encontrar [matemáticas] C [/ matemáticas]. Sustituya [math] \ theta = 0 [/ math]:

[matemáticas] \ begin {align} Ce ^ {i0} & = Ce ^ 0 \\ & = C \\ & = \ cos {0} + i \ sin {0} \\ & = 1 + i0 \\ & = 1 + 0 \\ & = 1 \ end {align} \ tag * {} [/ math]

Y entonces:

[matemáticas] \ boxed {e ^ {i \ theta} = \ cos {\ theta} + i \ sin {\ theta}} \ tag * {} [/ math]

La prueba de esto se topó durante la semana de explosión de matemáticas de Proof School (investigación matemática). Aquí está más o menos la idea principal de la prueba de que a los estudiantes de secundaria y preparatoria se les ocurrió el director de la escuela.

La prueba es una muy buena prueba geométrica, que te permite ver algunas cosas realmente geniales. Es realmente diferente de las pruebas de cálculo que se muestran aquí, así que espero que disfrutes 🙂

Vamos a dar por sentado lo siguiente:

[math] lim_ {n \ to \ infty} \ left (1+ \ dfrac {1} {n} \ right) ^ n = e [/ math] (una de las definiciones de [math] e [/ math] en realidad )

Y, si juegas con la ecuación anterior, verás que:

[matemáticas] lim_ {n \ to \ infty} \ left (1+ \ dfrac {2} {n} \ right) ^ n = e ^ 2 [/ math]

y

[matemáticas] lim_ {n \ to \ infty} \ left (1+ \ dfrac {x} {n} \ right) ^ n = e ^ x [/ math].

Por lo tanto, [math] lim_ {n \ to \ infty} \ left (1+ \ dfrac {i \ pi} {n} \ right) ^ n = e ^ {i \ pi} [/ math].

Pero, ¿qué más nos dice este límite?

Volvamos a algunos números complejos. Si trazamos dos números complejos, [matemática] z_1 [/ matemática] y [matemática] z_2 [/ matemática] con magnitud [matemática] | z_1 | [/ matemática] y [matemática] | z_2 | [/ matemática] y ángulos de [math] \ theta_1 [/ math] y [math] \ theta_2 [/ math], en el plano complejo, entonces su producto, [math] z_1z_2 [/ math], tendría una magnitud de [math] | z_1 | \ cdot | z_2 | [/ math] y el ángulo de [math] \ theta_1 + \ theta_2 [/ math]. Usaremos esto en la prueba a continuación. (Puede leer más sobre esto aquí: Comprender por qué funciona la multiplicación compleja)

Tracemos un número complejo [math] \ omega = [/ math] [math] 1+ \ dfrac {\ pi} {n} i [/ math]. Recuerda que [math] n [/ math] va al infinito, mientras hablamos de esto. [matemática] 1+ \ dfrac {\ pi} {n} i [/ matemática] tendría una magnitud de algo esencialmente [matemática] 1 [/ matemática] (ya que [matemática] lim_ {n \ to \ infty} \ left ( 1+ \ dfrac {\ pi} {n} i \ right) = 1 [/ math]) y un ángulo que es aproximadamente [math] \ dfrac {1} {n} [/ math] de [math] \ pi [ / math], ya que [math] \ dfrac {\ pi} {n} [/ math] es un número tan pequeño cuando [math] n [/ math] va al infinito y puede considerarse como la medida del arco de un sector de [matemáticas] \ dfrac {\ pi} {n} [/ matemáticas] radianes de un círculo unitario.

Pero, ¿qué sucede si ajustamos [math] \ omega [/ math] para obtener [math] \ omega ^ 2 [/ math]? Bueno, según las reglas de multiplicación de números complejos (descritos anteriormente), deberíamos tener la magnitud de [math] | \ omega | ^ 2 [/ math], que es [math] 1 [/ math], y un ángulo de aproximadamente [matemáticas] \ dfrac {2} {n} [/ matemáticas] de [matemáticas] \ pi [/ matemáticas].

Ahora, podemos ver a dónde vamos. Si tomamos [matemática] \ omega [/ matemática] a la potencia [matemática] n [/ matemática], deberíamos tener un número complejo de magnitud [matemática] 1 [/ matemática] y un ángulo de [matemática] \ dfrac ¡{n} {n} [/ math] de [math] \ pi [/ math] o simplemente [math] \ pi [/ math]! Por lo tanto, obtenemos que:

[matemáticas] lim_ {n \ to \ infty} \ left (1+ \ dfrac {i \ pi} {n} \ right) ^ n = -1, [/ math]

lo que también significa que [matemáticas] e ^ {i \ pi} = -1 [/ matemáticas].


La prueba anterior es un bosquejo de otra forma de ver la identidad de Euler y puede adaptarse fácilmente a [matemáticas] e ^ {i \ theta} = cos (\ theta) + isin (\ theta) [/ math]. Si no ve cómo, en lugar de conectar [math] i \ pi [/ math] a nuestro límite, intente conectar algo más relacionado con [math] \ theta [/ math]. El resto se deja como ejercicio para el lector 😉

Bueno … eso llevó mucho tiempo escribirlo, pero espero que esto sea interesante para usted: el lector 🙂 ¡ Por favor, por favor, comente a continuación con cualquier sugerencia para esta prueba o cualquier otra cosa, ya que todavía soy un estudiante de aprendizaje!


Usualmente escribo sobre programación, ocasionalmente sobre matemáticas, y algunas veces sobre Proof School. ¡No dudes en seguirme si este contenido te interesa!

Usar la serie Taylor-Maclaurin sería la forma más rápida de demostrar la identidad si conoce la diferenciación.

Las series de Taylor se pueden escribir como:
[matemáticas] f (x) = f (a) + f ‘(a) (xa) + \ frac {f’ ‘(a)} {2!} (xa) ^ 2 + \ cdots + \ frac {f ^ { (n)} (a)} {n!} (xa) ^ n + \ cdots [/ math]
Tomando [math] a = 0 [/ math], obtenemos la serie Taylor-Maclaurin:
[matemáticas] f (x) = f (0) + f ‘(0) x + \ frac {f’ ‘(0)} {2!} x ^ 2 + \ cdots + \ frac {f ^ {(n)} ( 0)} {n!} X ^ n + \ cdots [/ math]

Tome [math] f (x) = cos (x) + i.sin (x) [/ math].
[matemática] f ‘(x) = -sin (x) + i.cos (x) = i. (cos (x) + i.sin (x)) [/ math]
[matemática] f ” (x) = i ^ 2. (cos (x) + i.sin (x)) [/ matemática]
[matemáticas] f ^ {(n)} (x) = i ^ n. (cos (x) + i.sin (x)) [/ matemáticas]

Por lo tanto:
[matemáticas] f (0) = (cos (0) + i.sin (0)) = 1 [/ matemáticas]
[matemáticas] f ‘(0) = i [/ matemáticas]
[matemáticas] f ” (0) = i ^ 2 [/ matemáticas]
[matemáticas] f ^ {(n)} (0) = i ^ n [/ matemáticas]

Sustituyendo, tenemos:
[matemáticas] f (\ theta) = cos \, \ theta + i.sin \, \ theta = 1 + i. \ theta + \ frac {(i. \ theta) ^ 2} {2!} + \ cdots + \ frac {(i. \ theta) ^ {n}} {n!} + \ cdots = e ^ {i \ theta} [/ math]

Por lo tanto:
[matemáticas] 1: \; cos \, \ theta + i.sin \, \ theta = e ^ {i \ theta} [/ math]
[matemáticas] 2: \, cos \, \ theta – i.sin \, \ theta = e ^ {- i \ theta} [/ matemáticas]
[matemáticas] 3: \; cos \, \ theta = \ frac {e ^ {i \ theta} + e ^ {- i \ theta}} {2} [/ math]
[matemáticas] 4: \; sin \, \ theta = \ frac {e ^ {i \ theta} – e ^ {- i \ theta}} {2i} [/ math]
[matemáticas] 5: \; tan \, \ theta = \ frac {sin \, \ theta} {cos \, \ theta} = i. \ frac {e ^ {- i \ theta} – e ^ {i \ theta}} {(e ^ { i \ theta} + e ^ {- i \ theta})} [/ math]

Para una prueba que no usa diferenciación, vea:
La respuesta de Jacob Minz a ¿Por qué es [matemáticas] e ^ {ix} = \ cos (x) + i \ sin (x) [/ matemáticas]?

Esta no es una prueba rigurosa sino una simple observación.

Si se expande en la serie [matemáticas] e ^ x [/ matemáticas] obtendrá [matemáticas] 1 + x + x ^ 2/2! + x ^ 3/3! …[/matemáticas]

Ahora sustituya [math] x [/ math] con [math] i \ theta [/ math]. Recordando que [matemática] i ^ 2 = -1, i ^ 3 = -i, i ^ 4 = 1 [/ matemática] etc. puede escribir

[matemáticas] e ^ {i \ theta} = 1 + i \ theta – \ theta ^ 2/2! – i \ theta ^ 3/3! [/matemáticas]

entonces los términos impares son reales, los términos pares son imaginarios. Si los organizas de manera diferente, obtienes

[matemáticas] e ^ {i \ theta} = 1 – \ theta ^ 2/2! + \ theta ^ 4/4! … + I (\ theta – \ theta ^ 3/3! + \ Theta ^ 5/5!) [/ ​​Math]

Pero ambas series en el lado derecho son bien conocidas: [matemáticas] cos (\ theta) = 1 – \ theta ^ 2/2! … [/ Math] y [math] sin (\ theta) = \ theta – \ theta ^ 3/3! …[/matemáticas]

entonces

[matemáticas] e ^ {i \ theta} = cos (\ theta) + i sin (\ theta) [/ matemáticas]

Como referencia rápida, este enlace es útil para la serie Taylor – Wikipedia

Aquí hay un argumento simple y directo que evita todas las expansiones aburridas de la serie de Taylor.

Deje [math] z (\ theta) = \ cos (\ theta) + i \ sin (\ theta) [/ math]

Diferenciar ambos lados con respecto a [math] \ theta [/ math] para obtener

[matemáticas] \ frac {dz} {d \ theta} = – \ sin (\ theta) + i \ cos (\ theta) = i \ big (\ cos (\ theta) + i \ sin (\ theta) \ big ) = iz [/ matemáticas]

es decir, [matemáticas] \ frac {dz} {d \ theta} = iz [/ matemáticas]

Resolviendo esta ecuación diferencial, obtenemos

[matemáticas] z (\ theta) = C \ exp (i \ theta) [/ matemáticas]

Ahora tenga en cuenta que [matemáticas] z (0) = 1 [/ matemáticas] y esto hace que la integración sea constante [matemáticas] C = 1 [/ matemáticas]

Así, llegamos a la fórmula de Euler:

[matemáticas] \ exp (i \ theta) = z (\ theta) = \ cos (\ theta) + i \ sin (\ theta) [/ math]

Para hacer algo como esto, primero debe tener una definición precisa de lo que significan los términos involucrados. En particular, no podemos comenzar hasta que sepamos por primera vez qué significa [math] e ^ {i \ theta} [/ math].

La definición ingenua habitual de exponenciación como multiplicación repetida no funciona: ¿qué significa multiplicar [matemática] e [/ matemática] por sí misma [matemática] i [/ matemática] veces? ¿Qué significa hacer algo [matemáticas] i [/ matemáticas] veces ?! Además, esta definición ni siquiera funciona bien para exponentes de números reales .

Resulta que la función exponencial no se puede definir sin usar algún tipo de cálculo en el proceso, al menos límites, si no diferenciación.

Una forma de definir la función exponencial es como el punto fijo de la derivada , es decir, la solución del problema del valor inicial

[matemáticas] f ‘= f, \ f (0) = 1 [/ matemáticas].

Esto tiene una solución porque es una ecuación diferencial ordinaria lineal de primer orden con el lado derecho una función continua acotada de la variable y [math] f [/ math]. Entonces [matemáticas] f (t) = e ^ t [/ matemáticas]. ¿Por qué tiene sentido usar tal definición? Bueno, pensemos qué nos gustaría que tuviera una función exponencial. Lo ideal es que retenga algunas propiedades de exponenciación a potencias de números enteros, como [math] a ^ {n + m} = a ^ na ^ m [/ math]. Deje [math] g (x) = f (x + y) [/ math] para algunos [math] y [/ math]. Entonces vemos fácilmente que [matemáticas] g ‘(x) = g (x) [/ matemáticas]. Por lo tanto, es similar a [matemáticas] f (x) [/ matemáticas], excepto que ahora [matemáticas] g (0) = f (y) [/ matemáticas]. Con esto en la mano, consideramos [matemáticas] h (x) = \ frac {g (x)} {f (x)} = \ frac {f (x + y)} {f (x)} [/ matemáticas] . Al diferenciar [matemática] h (x) [/ matemática] por la regla del cociente se obtiene [matemática] h ‘(x) = \ frac {f (x) f’ (x + y) – f (x + y) f ‘( x)} {f (x) ^ 2} = \ frac {f (x) f (x + y) – f (x + y) f (x)} {f (x) ^ 2} = 0 [/ matemática ] Por lo tanto, [math] h (x) [/ math] es constante y, por lo tanto, está completamente determinado por [math] h (0) [/ math], que vemos es [math] \ frac {g (0)} {f ( 0)} = g (0) = f (y) [/ math] (ya que [math] f (0) = 1 [/ math]), y luego eso muestra que [math] \ frac {f (x + y )} {f (x)} = f (y) [/ math] así que [math] f (x + y) = f (x) f (y) [/ math]. Esto nos dice que la [matemática] f (x) [/ matemática] que define esta ecuación satisface una de las propiedades de una función exponencial, por lo que podría ser una buena definición. De hecho, de esto se deduce que para el entero [matemáticas] n [/ matemáticas], que [matemáticas] f (n) = f (1) f (1) \ cdots f (1) [/ matemáticas] (n veces), y por lo tanto tenemos aún más justificación para considerarlo como exponenciación a una base [math] f (1) [/ math], a la que asignamos la etiqueta [math] e [/ math] y diremos [math] e ^ x \ stackrel {\ mathrm {def}} {=} f (x) [/ math]. Las otras propiedades como [math] (a ^ n) ^ m = a ^ {nm} [/ math] no pueden obtenerse tan fácilmente de esta definición ya que eso implica exponenciación a una base diferente, y de hecho esta propiedad no funciona para números complejos.

Ahora que sabemos de qué estamos hablando, ¿cómo podemos hacer la exponenciación compleja? Primero asumiremos que existe una función compleja [matemática] f [/ matemática] que satisface el problema de valor inicial anterior. Luego mostramos que esta suposición conduce a un candidato para esa función, y luego podemos confirmar que realmente funciona, en particular que es complejamente diferenciable y satisface la ecuación diferencial, y por lo tanto no solo muestra la fórmula en la pregunta, sino también una identidad completa para la función exponencial compleja general.

Suponiendo que tal función exista, deberíamos saber que su comportamiento para entradas reales debería coincidir con el de números reales, lo cual ya se conoce. Pero para las entradas imaginarias , tenemos que hacer un poco más de trabajo. Consideremos [math] g (t) = e ^ {it} [/ math]. Para tener una idea de lo que podría ser, es instructivo utilizar el razonamiento físico . Me gusta esto porque es muy visualizable y está conectado a aplicaciones de la vida real. Puede que esta no sea la forma en que un matemático podría hacerlo, pero mi experiencia también es física, no solo matemática pura. Cualquier número complejo puede interpretarse como un vector euclidiano en el plano y, por lo tanto, podemos considerar que [math] g (t) [/ math] es equivalente a una función vectorial [math] \ vec {r} (t) [/ matemática] que describe la posición de una partícula que se mueve con respecto al tiempo, donde el componente x es la parte real y el componente y la parte imaginaria. Como expresión cinemática, podemos indagar naturalmente sobre la velocidad y la aceleración. Para facilitar las cosas, abusaré de la notación y me referiré al vector [math] \ vec {r} (t) [/ math] y al número complejo [math] g (t) [/ math] como si fueran el mismo. Tenemos [math] \ vec {v} (t) = \ frac {d \ vec {r}} {dt} = \ frac {d} {dt} e ^ {it} = ie ^ {it} [/ math ] aplicando la regla de la cadena. Una segunda aplicación produce [math] \ vec {a} (t) = -e ^ {it} = – \ vec {r} (t) [/ math]. Esta es la aceleración. Detengámonos a analizar eso. Vemos que apunta en la dirección exactamente opuesta al vector de posición, y esto apuntará hacia 0. Además, es [matemática] i [/ matemática] multiplicada por la velocidad [matemática] \ vec {v} (t) [/ matemáticas].

¿Qué podemos concluir de esto? Por el cálculo básico del vector sabemos que el vector de velocidad siempre es tangente a la dirección del movimiento, y también sabemos por geometría compleja que una multiplicación por [matemáticas] i [/ matemáticas] es equivalente a una rotación de 90 grados. Por lo tanto, vemos que los vectores de velocidad y aceleración son ortogonales entre sí, y en particular esto significa que la componente tangencial de la aceleración [matemática] a_T [/ matemática] es 0, por lo que la aceleración es puramente radial. Lo único que queda por hacer es calcular la magnitud de la aceleración radial. Como no hay un componente tangencial, vemos que esta magnitud debería ser solo el módulo complejo [matemáticas] | \ vec {a} (t) | = | g ” (t) | = | -e ^ {it} = | e ^ {it} | [/ math]. ¿Pero cuál es esta magnitud? Bueno, podemos usar la fórmula [matemáticas] | z | = \ sqrt {z \ bar {z}} [/ math], pero ahora necesitamos el complejo conjugado de [math] e ^ {it} [/ math]. Podemos obtener el conjugado por diferenciación real con respecto al parámetro real [math] t [/ math]. En particular, [math] \ frac {d} {dt} e ^ {it} = ie ^ {it} [/ math] pero ahora [math] \ frac {d} {dt} \ bar {e ^ {it} } = \ bar {\ frac {d} {dt} e ^ {it}} = \ bar {ie ^ {it}} = \ bar {i} \ bar {e ^ {it}} = -i \ bar { e ^ {it}} [/ math]. Esto se parece a la diferenciación de [math] e ^ {- it} [/ math] y dado que ambos tienen el mismo valor en [math] t = 0 [/ math], entonces debe [math] \ bar {e ^ {it}} = e ^ {- it} [/ math]. Así [matemáticas] | e ^ {it} | = \ sqrt {e ^ {it} \ bar {e ^ {it}}} = \ sqrt {e ^ {it} e ^ {- it}} = \ sqrt {e ^ {it – it}} = \ sqrt {e ^ 0} = 1 [/ matemáticas]. Entonces la aceleración radial tiene una magnitud constante 1.

Y esto es todo lo que necesitamos para concluir que el movimiento de la partícula es un movimiento circular con velocidad angular uniforme, radio 1 y centro en el origen. Por lo tanto, ahora podemos decir que

[matemáticas] e ^ {it} = \ cos (\ omega t) + i \ sin (\ omega t) [/ matemáticas]

para alguna velocidad angular [math] \ omega [/ math]. Por las ecuaciones físicas, [matemáticas] \ omega = \ sqrt {\ frac {a} {r}} = \ sqrt {\ frac {1} {1}} = 1 [/ matemáticas], y por lo tanto

[matemáticas] e ^ {it} = \ cos (t) + i \ sin (t) [/ matemáticas].

Ahora tenemos un paso final para terminar la derivación, y es mostrar que esto es compatible con nuestras ecuaciones diferenciales originales para números complejos y la definición en el eje de números reales. Para hacer esto, tenga en cuenta que para un número complejo general [matemáticas] z = x + iy [/ matemáticas], deberíamos tener

[matemáticas] e ^ z = e ^ {x + iy} = e ^ x [\ cos (y) + i \ sin (y)] = u (x, y) + iv (x, y) [/ matemáticas]

donde [matemáticas] u (x, y) = e ^ x \ cos (y) [/ matemáticas] y [matemáticas] v (x, y) = e ^ x \ sin (y) [/ matemáticas]. Primero comprobamos que esto es complejo diferenciable. Como productos de funciones suaves, vemos que estos tienen derivados parciales continuos, de hecho, suaves. Por lo tanto, es (Frechet) diferenciable. Para mostrar la diferenciabilidad compleja , debemos verificar las ecuaciones de Cauchy-Riemann, lo que realmente significa que deberíamos ver si la derivada tiene la forma de un número complejo, lo que significa que tomamos el jacobiano

[matemáticas] J [e ^ z] = \ begin {bmatrix} \ frac {\ partial u} {\ partial x} && \ frac {\ partial u} {\ partial y} \\ \ frac {\ partial v} { \ partial x} && \ frac {\ partial v} {\ partial y} \ end {bmatrix} = \ begin {bmatrix} e ^ x \ cos (y) && -e ^ x \ sin (y) \\ e ^ x \ sin (y) && e ^ x \ cos (y) \ end {bmatrix} [/ math].

Vemos que esta última matriz tiene la forma de matriz requerida [matemática] \ begin {bmatrix} A && -B \\ B && A \ end {bmatrix} [/ math] de un número complejo [matemática] Z = A + iB [ / math] con [math] A = e ^ x \ cos (y) [/ math] y [math] B = e ^ x \ sin (y) [/ math], que es la derivada. Por lo tanto, es complejo-diferenciable, y su derivada es igual a sí misma, por lo que satisface nuestra ecuación diferencial. Entonces es fácil verificar que [matemática] e ^ z = 1 [/ matemática] cuando [matemática] z = 0 [/ matemática], y hemos probado y generalizado completamente los números exponenciales a complejos. En particular, ahora sabemos con certeza que

[matemáticas] e ^ {it} = \ cos (t) + i \ sin (t) [/ matemáticas]

o para usar [matemáticas] \ theta [/ matemáticas], que [matemáticas] e ^ {i \ theta} = \ cos (\ theta) + i \ sin (\ theta) [/ matemáticas].

Defina [math] e [/ math] para que sea la función tal que:

[matemáticas] \ frac {de (x)} {dx} = e (x) [/ matemáticas]

[matemáticas] e (0) = 1 [/ matemáticas]

También nos gustaría que la función tenga estas propiedades en el plano complejo. Así que veamos qué es [math] e (ix) [/ math]. Supondremos que tiene un rango complejo, por lo que los separaremos en funciones separadas de valores reales que llamaremos, por razones aleatorias, [math] c [/ math] y [math] s [/ math] :

[matemáticas] e (ix) = c (x) + es (x) [/ matemáticas]

Como [math] e (0) = 1 [/ math], se deduce que:

[matemáticas] c (0) = 1 [/ matemáticas]

[matemáticas] s (0) = 0 [/ matemáticas]

La regla para la derivada significa:

[matemáticas] \ frac {de (ix)} {dx} = es decir (ix) [/ matemáticas]

[matemática] \ Rightarrow \ frac {d} {dx} (c (x) + es (x)) = i (c (x) + es (x)) [/ matemática]

La combinación de partes reales e imaginarias da un sistema acoplado de ecuaciones diferenciales:

[matemáticas] c (0) = 1 [/ matemáticas]

[matemáticas] c ‘(x) = -s (x) [/ matemáticas]

[matemáticas] s (0) = 0 [/ matemáticas]

[matemáticas] s ‘(x) = c (x) [/ matemáticas]

Resuelve este sistema y tienes tu respuesta.

Necesitas saber las siguientes expansiones de Taylor

[matemáticas] e ^ x = \ displaystyle \ sum_ {n = 0} ^ {\ infty} \ dfrac {x ^ n} {n!} [/ math]

[matemáticas] \ sin x = \ displaystyle \ sum_ {n = 0} ^ {\ infty} (-1) ^ n \ dfrac {x ^ {2n + 1}} {(2n + 1)!} = x- \ dfrac {x ^ 3} {3!} + \ dfrac {x ^ 5} {5!} – \ cdots [/ math]

[matemáticas] \ cos x = \ displaystyle \ sum_ {n = 0} ^ {\ infty} (-1) ^ n \ dfrac {x ^ {2n}} {(2n)!} = 1- \ dfrac {x ^ 2} {2!} + \ Dfrac {x ^ 4} {4!} – \ cdots [/ math]


[matemáticas] e ^ {i \ theta} = \ displaystyle \ sum_ {n = 0} ^ {\ infty} \ dfrac {(i \ theta) ^ n} {n!} = 1 + i \ theta- \ dfrac { \ theta ^ 2} {2!} – \ dfrac {i \ theta ^ 3} {3!} + \ dfrac {\ theta ^ 4} {4!} \ cdots [/ math]

[matemáticas] = \ left (1- \ dfrac {\ theta ^ 2} {2!} + \ dfrac {\ theta ^ 4} {4!} + \ cdots \ right) + i \ left (\ theta- \ dfrac {\ theta ^ 3} {3!} + \ dfrac {\ theta ^ 5} {5!} – \ cdots \ right) [/ math]

[matemáticas] = \ cos \ theta + i \ sin \ theta [/ matemáticas]

Esto a veces se llama la fórmula de Euler. Si conoce algo de Cálculo, se prueba haciendo coincidir la serie Taylor para las tres funciones. Ver

La respuesta de Ricky Kwok a las Matemáticas: ¿Cuáles son las mejores pruebas matemáticas que jamás hayas encontrado?

La prueba de la serie Taylor es agradable y rápida, pero me gusta esta porque la vincula más con el significado geométrico de los números complejos.

Considere un punto [matemático] (a, b) [/ matemático] y gire este punto en un ángulo [matemático] \ theta [/ matemático] para obtener un nuevo punto [matemático] (a ‘, b’) [/ matemático] :

[matemáticas] a ‘= a \ cos (\ theta) -b \ sin (\ theta) [/ matemáticas]
[matemáticas] b ‘= a \ sin (\ theta) + b \ cos (\ theta) [/ matemáticas]

Ahora represente el punto por el número complejo [matemática] a + bi [/ matemática], donde los componentes reales e imaginarios del número representan las coordenadas x e y del punto, respectivamente.

¿Podemos multiplicar [math] a + bi [/ math] con algún número para duplicar la rotación por [math] \ theta [/ math] arriba? Si:

[matemáticas] (\ cos (\ theta) + i \ sin (\ theta)) [/ matemáticas] [matemáticas] (a + bi) [/ matemáticas] [matemáticas] = (a \ cos (\ theta) -b \ sin (\ theta)) + (a \ sin (\ theta) + b \ cos (\ theta)) i [/ math]

Ahora, si quisiéramos rotar el punto por el ángulo [math] \ theta [/ math] nuevamente, podríamos multiplicar el nuevo número complejo por [math] cos (\ theta) + isin (\ theta) [/ math]. Si quisiéramos rotar el punto original por el ángulo [matemática] \ theta [/ matemática] [matemática] n [/ matemática] veces, podemos multiplicar el punto por [matemática] (\ cos (\ theta) + i \ sin (\ theta)) ^ n [/ math]. Sin embargo, también podríamos haber multiplicado por [matemáticas] cos (n \ theta) + isin (n \ theta) [/ matemáticas], entonces

[matemáticas] (\ cos (\ theta) + i \ sin (\ theta)) ^ n [/ matemáticas] [matemáticas] (a + bi) [/ matemáticas] [matemáticas] = (\ cos (n \ theta) + i \ sin (n \ theta)) [/ math] [math] (a + bi) [/ math].

entonces [matemáticas] (\ cos (\ theta) + i \ sin (\ theta)) ^ n = (\ cos (n \ theta) + i \ sin (n \ theta)) [/ math].

Usando esta ecuación, podemos notar que [matemáticas] \ cos (\ theta) + i \ sin (\ theta) = (\ cos (\ frac {\ theta} {n}) + i \ sin (\ frac {\ theta } {n})) ^ n [/ math]. Si permitimos que [math] n [/ math] sea arbitrariamente grande, entonces [math] \ frac {\ theta} {n} [/ math] puede hacerse arbitrariamente pequeño, entonces [math] \ cos (\ frac {\ theta} {n}) + i \ sin (\ frac {\ theta} {n}) \ aprox (1 + i \ frac {\ theta} {n}) [/ math]; esta es la aproximación de ángulo pequeño, y dado que variar [matemática] n [/ matemática] no afecta la igualdad en la primera oración de este párrafo, podemos hacer que esta aproximación sea arbitrariamente precisa y será igual en el límite como [matemática] n [/ math] va al infinito. Por lo tanto, [math] (1 + i \ frac {\ theta} {n}) ^ n \ to \ cos (\ theta) + i \ sin (\ theta) [/ math] como [math] n \ to \ infty [/matemáticas]

Ahora tomamos el siguiente límite:

[matemáticas] \ lim_ {n \ to \ infty} (1 + i \ frac {\ theta} {n}) ^ n [/ matemáticas].

Por cálculo sabemos que [matemáticas] \ lim_ {n \ to \ infty} (1+ \ frac {x} {n}) ^ n = e ^ x [/ matemáticas], por lo que combinando esto con la ecuación anterior, obtenemos ese

[matemáticas] e ^ {i \ theta} = \ cos (\ theta) + i \ sin (\ theta) [/ math].

Si realmente quiere entender por qué esto es cierto, no puede hacerlo mejor que esta prueba clásica.

para probar esto, voy a usar la expansión maclauriana para sin (x), exp ^ (x) y cos (x) que son

sin (x) = x – (x ^ 3) / (3!) + (x) ^ 5 / (5!) -… ..

cos (x) = 1 – (x) ^ 2 / (2!) + (x) ^ 4 / (4!) -… ..

exp ^ (x) = 1 + x / 1! + ((x) ^ 2) / 2! + ((x) ^ 3) / 3! +… ..

exp ^ (x) denota “e elevado a la potencia x”
! representa factorial

sustituya “x” por “ix” en exp ^ (x) y recuerde
i ^ (4n + 1) = i
i ^ (4n + 2) = -1
i ^ (4n + 3) = -i
i ^ (4n) = 1
i es raíz cuadrada -1 yn = 0,1,2,3,… ..

después de sustituir la expresión se verá así

exp ^ (ix) = 1 + (ix) / 1! + ((ix) ^ 2) / 2! + (ix) ^ 3/3! + (ix) ^ 4/4! + (ix) ^ 5/5! + …
= 1 + (ix) / 1! – (x) ^ 2/2! – i ((x) ^ 3) / 3! + (x) ^ 4/4! + i ((x) ^ 5) / 5! + …

ahora agrupa partes reales e imaginarias

= {1 – (x) ^ 2/2! + (x) ^ 4/4! -…} + i {x – (x) ^ 3/3! + (x) ^ 5/5! – …}

de las expansiones anteriores podemos ver claramente que

= cos (x) + i sen (x)

Espero que esto responda a su pregunta

El teorema de PS maclaurian establece que cualquier función f (x) puede escribirse como

f (x) = f (0) + f ‘(0) x / 1! + f ” (0) x ^ (2) / 2! + f ” ‘(0) x ^ (3) / 3! + …

donde f ‘(x) denota la primera derivada de x
f ” (x) denota la segunda derivada de f (x)
y así

SUGERENCIA aprender ciertas expansiones ayuda enormemente en el cálculo y para probar ciertas expresiones. incluso puedes probar el teorema de De morvie usando las expansiones.

Define la función f como

f (x) = cos (x) + i sen (x)

Entonces obtienes que f ‘(x) = i * f (x).

Esta ecuación diferencial te da que f (x) = k * exp (i * x), con f (0) = 1 te da que f (x) = exp (ix) = cos (x) + i sin (x )

Aquí hay otra forma de verlo. No probaré todo, pero es otra forma de entender de dónde viene la fórmula.

Pensemos en el mapa [matemáticas] \ theta \ mapsto cos (\ theta) + isin (\ theta). [/ math] Este es un mapa continuo de los reales a los números complejos, específicamente al círculo. También puede mostrar que es un homomorfismo continuo, infinitamente diferenciable, que generalmente se llama un subgrupo de un parámetro. Ahora, obviamente, el mapa [math] \ theta \ mapsto e ^ {i \ theta} [/ math] es un subgrupo de un parámetro. Sorprendentemente, cada subgrupo de un parámetro tiene la forma [math] \ theta \ mapsto e ^ {z \ theta} [/ math] para algunos [math] z \ in \ mathbb {C}. [/matemáticas]

Entonces, ¿de dónde viene el [math] i [/ math]? Si diferencia el mapa [math] \ theta \ mapsto e ^ {z \ theta} [/ math] en [math] \ theta = 0 [/ math] obtendrá [math] z. [/ math] La derivada de nuestro primer mapa en es [math] -sin (0) + icos (0) = i. [/ math]

1er Método: (Enfoque riguroso)

Segundo método: (enfoque de la serie Taylor)

De la serie Maclaurin,

Voy a responder esto desde una perspectiva más conceptual, y al principio lo haré parecer más complicado, pero tengan paciencia conmigo porque el resultado es satisfactorio.

Consideremos e a una potencia compleja, representada como e ^ (a + bi). En base a las propiedades de los exponentes, sabemos que esto es equivalente a e ^ a * e ^ bi. e ^ a se evalúa como un número real, por lo que actúa como un escalar para e ^ bi.

e ^ a es un escalar.

Pero todavía te preguntas qué es e ^ bi. ¡Paciencia, joven saltamontes! Vamos a llegar.

Ahora recordemos que e ^ x es la derivada de sí mismo. Afirmaré que hay un poder de e que equivale a un número complejo. ¿Qué significa que un número complejo sea derivado de sí mismo? Significa que el plano que rodea inmediatamente a un número complejo se multiplica por ese número, es decir, se rota y se estira por su ángulo fuera del eje x y la magnitud, respectivamente.

Repetiré eso: el plano que rodea inmediatamente a ese número complejo se gira y se escala por su ángulo fuera del eje x y la magnitud, respectivamente.

Eso significa que todos los poderes reales de e no tienen rotación.

Pero ya sabíamos eso. e ^ a es un escalar, ¿recuerdas?

Ahora nos quedamos con ganas de saber qué podría conducir a la rotación, y también con ganas de saber qué significa e ^ bi.

Estas preguntas se responden entre sí y concluyen que e ^ bi es rotación.

e ^ bi es equivalente a una rotación de b radianes desde 1. Eso es lo que significa e ^ bi = cos (b) + isin (b). Y ahora que establecimos que b es un ángulo, pasemos por la convención y llamémosla θ.

Si bien esto no es exactamente una prueba, espero que mi respuesta ayude a tener más sentido a qué se refiere esa ecuación.

No, es una definición.

El punto es, ¿qué significado le asignas al símbolo [matemáticas] e ^ {i \ theta} [/ matemáticas]? La función exponencial habitual [matemáticas] e ^ x [/ matemáticas] solo se define para números reales. Ahora queremos extender la definición de la función exponencial para aplicar a números imaginarios. Podríamos elegir cualquier definición que nos guste. Sin embargo, esta definición particular es agradable y conveniente, porque aún satisface [math] \ frac {d} {dz} e ^ z = e ^ z [/ math] incluso cuando [math] z [/ math] es un número complejo .

Ver la identidad / fórmula de Euler por Sridhar Ramesh en publicaciones