Hot!

Profundidad de captura: luz estructurada, tiempo de vuelo y futuro de las imágenes tridimensionales


En un artículo reciente, analicé el fallecimiento de Lytro , creador de la primera cámara de "campo ligero" para consumidores, y lo que significaba para el futuro de esta tecnología en dispositivos móviles. Por intrigantes que puedan ser algunos de sus resultados, las imágenes de campo claro no son la única opción para capturar información de profundidad y producir imágenes en 3D con dispositivos móviles. Una de las posibilidades más interesantes, una que quizás ya esté utilizando, es el concepto de "luz estructurada ",  un término que abarca varios métodos relacionados para agregar información de profundidad a la fotografía "2D" ordinaria.

Tanto la fotografía de campo claro como la luz estructurada solo se han vuelto prácticas en la última década o dos, debido al desarrollo de hardware de procesamiento de gráficos relativamente económico y sofisticados algoritmos de procesamiento de imágenes.

Juntos, han permitido el uso en el mercado de consumo de métodos de fotografía computacional, en los que los cálculos toman el lugar (y luego algunos) de la óptica convencional en la manipulación de la luz (datos) que compone la imagen. El uso de este enfoque, en el que los datos proporcionados por los sensores de imágenes digitales se procesa para obtener información adicional más allá de lo que vemos en la "instantánea", permite que el hardware simple de la cámara entregue imágenes que hubieran sido imposibles hace unos años.

La luz estructurada, en particular, se basa en un principio bastante fácil de entender. Además de la cámara en sí misma, un sistema de luz estructurado agrega una fuente de luz, un proyector de algún tipo, para iluminar el objeto que se está fotografiando con rayas o patrones similares que luego son "vistos" por la cámara. La geometría regular de esta iluminación está distorsionada por la superficie del objeto, y a partir de esta distorsión se puede calcular un mapa de profundidad del objeto. Tampoco es necesario que esto sea visible para el usuario. El patrón de líneas se puede proyectar con la misma eficacia en la luz infrarroja invisible (IR), y aún así puede ser captado fácilmente por el sensor de la cámara.

Es muy probable que ya haya visto este método en el trabajo; es la base de uno de los accesorios de juego más populares que se presentó en la memoria reciente, los sensores de línea de movimiento Kinect de Microsoft utilizados con sus consolas de juegos Xbox. (Más correctamente, este método fue la base del Kinect original; con la introducción del Kinect para Xbox One en 2013, Microsoft cambió de un sistema de luz estructurado IR a un método de mapa de profundidad diferente, que veremos en un momento .) Si miras un Kinect original, verás lo que parecen dos cámaras cerca del centro del dispositivo, más otro componente óptico ubicado a la izquierda del centro. Esa es la fuente IR, y proyecta una grilla de líneas para ser "vistas" por la cámara IR, un sensor monocromático de 640 x 480 que se encuentra a la derecha de las dos cámaras centrales. La otra es una cámara RGB de 1280 x 960,

0 comentarios:

Publicar un comentario