¿Cuál es la tecnología detrás de Intel RealSense y cómo funciona?

Había dos versiones de Realsense. Una que era la versión anterior de la cámara (R100) usa disparidad. Esta disparidad se calcula utilizando una cámara estéreo. Así es como típicamente el ojo humano percibe la profundidad. Hay una cámara izquierda y otra derecha con cierta distancia. Las imágenes se capturan de ambos. Comparando ambos, se puede calcular la disparidad.

La versión más reciente (R200) ​​está utilizando IR. La cámara IR proyecta un flujo de puntos (no visible a simple vista debido a que está dentro del rango IR). En objetos más cercanos, el patrón de puntos se extiende y para los objetos más lejanos el patrón de puntos se vuelve más denso. Usando este desplazamiento, se calcula la profundidad.

Siendo realistas, el alcance de la cámara de profundidad es de alrededor de 0,5 ma 4 m. Más allá de eso, habría muchos agujeros y ruido en las corrientes de profundidad.

La cámara 3D incluye una cámara IR y un proyector IR. La cámara utiliza la luz proyectada (proyecta un patrón preciso) y un poco de trigonometría para calcular la distancia.

Por lo que entiendo, han incluido una cámara de profundidad. Supongo que es similar a una cámara de luz estructurada similar a las proporcionadas por primesense.