¿Cómo se crearon las ecuaciones y principios de cálculo en matemáticas y en general?

Después de 1665, cuando Newton se vio obligado a viajar a casa debido a la peste, fundó el cálculo en dos años. Como puede ver en el artículo de Wikipedia Historia del cálculo, utilizó la notación x = x + o (la letra o) para marcar un cambio infinitesimal. Con y = x ^ 2 (Galilei encontró esto en el caso de bolas que caen: distancia = constante * (tiempo) ^ 2): un pequeño cambio en y significa (x + o) ^ 2 – x ^ 2 = 2xo + o ^ 2. Entonces, el pequeño cambio en y cuando hay un pequeño cambio (x a x + o: eso significa un cambio o) en x: (2xo + o ^ 2) / o = 2x + o. En esta fórmula, si o se hace cada vez más pequeño, la derivada ahora llamada se acerca cada vez más a 2x. Newton puso un punto sobre y para marcar la “derivada”.
Leibniz en ese momento se acercó de una manera algebraica: usó dx como o y dy como el cambio en y. Usando esto podemos escribir dy / dx = 2x + dx, entonces dy / dx = 2x.
Después de fundar el cálculo, puede experimentar su historia: todo lo que tiene que hacer es usar la definición (la definición x + o (x + dx)) para probar algunas fórmulas generales. La x ^ a es bastante fácil en general. También debe probarse que (x ^ a + x ^ b) ‘(uso el’ para marcar la derivada que luego fue más fácil de imprimir) = (x ^ a) ‘+ (x ^ b)’ etc.
La notación de una pequeña cantidad que no es cero al comienzo de los cálculos pero se convierte en 0 al final (2x + o = 2x cuando o va a 0) es ilógica. (No es aceptable dividir entre 0). Le recomiendo una crítica de George Berkeley: un discurso dirigido a un matemático infiel.
La formalidad que resolvió el problema de “engañar” con palabras (si o se acerca a 0 entonces 2x + o se acerca a 2x, pero o no es cero) vino con Bolzano y Weierstrass: el límite. En el caso del límite, o se acerca a 0 pero no lo alcanza como en 2x + o. También puede seguir sus otros resultados observando los teoremas que probaron.

(Mi fuente fue “17 ecuaciones que cambiaron el mundo” por Ian Stewart)