En el mundo de la programación hay varias formas diferentes de representar números.
Hay enteros, que pueden ser firmados o no, y de varias longitudes.
Hay fracciones de punto fijo: los casos comunes son 12 o 16 bits siendo la parte fraccionaria, pero puede hacerlo con la representación que desee. Ha habido algunos procesadores que manejan este tipo de formato internamente, por lo que multiplicar dos valores automáticamente haría el cambio descendente en el resultado. Me encontré con esto por primera vez en los chips RISC de gráficos personalizados en el Atari Jaguar.
Hay fracciones de coma flotante, que generalmente usan uno de los formatos IEEE, que generalmente almacenan 1 bit de signo, una pequeña cantidad de bits de exponente y una mayor cantidad de bits de mantisa. Casi todos los procesadores ahora admiten punto flotante de forma nativa; el último que recuerdo que no admite es el chip R3000 en la primera PlayStation.
- ¿Qué significa la suma [matemáticas] \ frac {x} {1-x ^ 2} + \ frac {x ^ 2} {1-x ^ 4} + \ frac {x ^ 4} {1-x ^ 8} + \ cdots [/ math] convergen a?
- Cómo expandir [matemática] (1 + a_1x + a_2x ^ 2 + a_3x ^ 3 + a_4x ^ 4 + \ ldots) ^ {\ alpha} [/ math]
- Si 2X + 1 = 2X, ¿cuál es el valor de X?
- ¿Qué es [math] x [/ math] igual cuando [math] \ ln (x) [/ math] es igual a [math] \ log_ {10} (x) [/ math], usando números reales? Lo sé, es uno, simplemente no puedo entender cómo abordar el problema.
- Cómo demostrar que el límite a medida que x se aproxima a 0 en sen 1 / x no existe usando epsilon-delta
(También hay algunas variaciones de punto flotante que no son IEEE utilizadas en casos especializados, por ejemplo en chips gráficos, donde no se requiere el bit de signo).