Si podemos ver la tierra desde el espacio, ¿por qué no podemos copiar lo que vemos IRL en un objeto 3D sin proyección?

Esta es la Antártida como se ve en Google Earth:


No se ve tan mal, pero estoy de acuerdo en que hay algo de textura pellizcando alrededor del poste. No hay una razón inherente para que esto suceda: como usted señala, estamos asignando una esfera a una esfera para que no haya ningún tipo de distorsión inevitable (como es el caso de las proyecciones planas, cilíndricas u otras). Supongo que Google simplemente no tiene excelentes imágenes / datos de relieve para esa región, por lo que hacen un poco de estiramiento.

EDITAR: Un poco de google (ha) revela [1] algunas razones potenciales adicionales:

– Los satélites utilizados para generar las imágenes de Google Earth son satélites síncronos solares. Nunca pasan por encima de los polos. Spot está en una órbita de 98.7 grados, Landsat, 98.2. Cualquier imagen de los polos de esos satélites será de baja resolución y distorsionada. Puede ver que esta pérdida de resolución comienza a aparecer a unos 80 grados norte y sur.

– El algoritmo que utiliza Google tiene algunos problemas obvios en los polos, el polo sur en particular. Sospecho una singularidad matemática en sus esquemas de representación interna en los polos.

– Google intenta enmascarar las nubes uniendo varias imágenes. Las nubes son blancas Así es el hielo. Google tiene dificultades con las capas de hielo porque sus algoritmos de filtrado en la nube ocultan los datos.

Si de hecho hay una singularidad en alguna representación interna, esto ciertamente se puede resolver. Supongo que el mapa usa algún conjunto conveniente de coordenadas 2D para los datos (por ejemplo, ángulos de Euler) y que son algo densos y sensibles alrededor de los polos, pero nuevamente, este no es un problema matemático inevitable.

[1] http://www.physicsforums.com/sho…