vision some-terminal

150 € y una cámara que ve en 3D: la OAK-D Lite mete profundidad y redes neuronales en un cacharro USB

La Luxonis OAK-D Lite combina cámara 13 MP, visión estéreo y un chip Intel Myriad X para correr modelos de IA a 30 FPS. Se enchufa por USB-C.

ver producto ~150€
150 € y una cámara que ve en 3D: la OAK-D Lite mete profundidad y redes neuronales en un cacharro USB

💡 Antes de empezar Necesitas: Una Luxonis OAK-D Lite (~150 €), un cable USB-C (incluido), y un ordenador con Python 3.8+ instalado (Mac, Windows o Linux). También funciona con Raspberry Pi 4/5. Tiempo estimado: 15-20 minutos para tener detección de objetos con profundidad funcionando. Nivel: Necesitas perder el miedo a la terminal — hay comandos y algo de Python, pero los ejemplos son copiar y pegar.

Una cámara que no solo ve — entiende dónde están las cosas

Las cámaras normales capturan una imagen plana. Saben que hay un gato en el frame, pero no saben si está a medio metro o a cinco. La OAK-D Lite cambia eso: tiene dos cámaras estéreo — el mismo truco que usan tus ojos para percibir la profundidad — más una cámara central de 13 megapíxeles para color de alta resolución. Y dentro lleva un chip Intel Myriad X con una NPU dedicada — un procesador especializado en ejecutar modelos de inteligencia artificial — capaz de correr redes neuronales directamente en el dispositivo.

El resultado: enchufas un USB-C a tu ordenador (o a una Raspberry Pi) y tienes detección de objetos que además te dice “esa persona está a 2,3 metros” o “ese coche está a 8,7 metros”. Sin GPU externa, sin servidor en la nube, sin cuota mensual.

Qué hay dentro

La cámara de color — Sensor IMX214 de 13 megapíxeles con autoenfoque (en la versión AF). Graba en 4K a 30 FPS y el OAK-D Lite incluye un encoder de vídeo H.265 integrado, así que puedes hacer streaming comprimido sin cargar la CPU de tu ordenador.

Las cámaras estéreo — Dos sensores OV7251 en blanco y negro separados 7,5 cm entre sí. Esa separación (la “baseline”) es la que permite calcular la profundidad por triangulación — el mismo principio que un telémetro. Generan un mapa de profundidad de hasta 300.000 puntos a 30 FPS.

El cerebro: Intel Myriad X — Un VPU (Vision Processing Unit) con 4 TOPS de capacidad de cómputo neural. Puede correr modelos como MobileNet SSD, YOLO (versiones nano y tiny), detección de caras, estimación de poses y segmentación semántica directamente en el chip, sin usar recursos de tu ordenador. La CPU de tu portátil o Pi queda libre para la lógica de tu aplicación.

Conectividad — USB-C 3.2 Gen1 (5 Gbps). Un solo cable para datos y alimentación. Consumo máximo de 5W — se alimenta directamente del puerto USB.

Qué puedes hacer con ella (hoy, sin inventar nada)

Detección de objetos con distancia real: El ejemplo estrella de DepthAI. La cámara de color detecta objetos (personas, coches, mascotas, botellas) con MobileNet SSD, y las cámaras estéreo calculan a qué distancia están. Cada bounding box lleva una etiqueta de metros. Para proyectos de seguridad del hogar, esto significa saber si alguien está en tu puerta o simplemente pasando por la acera.

Navegación robótica: Si estás montando un robot con Raspberry Pi, la OAK-D Lite es posiblemente el sensor más completo que puedes ponerle. Con ROS2 y el paquete depthai-ros, tienes mapa de profundidad + detección de obstáculos + tracking de objetos en un solo dispositivo. Los drones de competición FPV llevan OAK-D por algo.

Seguimiento de personas y poses: El modelo de estimación de poses corre en el Myriad X y devuelve las articulaciones del cuerpo en coordenadas 3D — no solo la posición en la imagen, sino a qué profundidad está cada punto. Útil para fisioterapia remota, análisis deportivo o interfaces gestuales.

Segmentación con profundidad: Combina la segmentación semántica (clasificar cada píxel) con el mapa de profundidad para aislar objetos no solo por categoría sino por distancia. Imagina un sistema de videoconferencia que difumina el fondo pero sabe exactamente dónde termina tu cuerpo y empieza la pared.

Cómo empezar

Paso 1: Instala DepthAI, el framework open source de Luxonis:

pip install depthai

En Mac puede que necesites pip3 install depthai. En Linux, si es la primera vez que conectas un OAK, necesitas los permisos USB:

echo 'SUBSYSTEM=="usb", ATTRS{idVendor}=="03e7", MODE="0666"' | sudo tee /etc/udev/rules.d/80-movidius.rules
sudo udevadm control --reload-rules && sudo udevadm trigger

Paso 2: Enchufa la OAK-D Lite por USB-C. No necesita drivers especiales.

Paso 3: Lanza el ejemplo de detección de objetos con profundidad:

python3 -m depthai

Esto abre DepthAI Demo, una app gráfica que muestra en tiempo real la imagen de color con bounding boxes y distancias. Puedes cambiar entre modelos (MobileNet, YOLO, detección de caras) desde la interfaz sin escribir código.

Paso 4: Si quieres algo más controlado, crea un script de Python con los pipelines de DepthAI. El repositorio oficial tiene más de 30 ejemplos listos para copiar: detección de objetos, tracking, segmentación, estimación de poses, codificación de vídeo y combinaciones de varios.

Cómo se compara con la Raspberry Pi AI Camera

Si ya tienes la Pi AI Camera (70 €), la pregunta natural es por qué gastar el doble. La respuesta está en la profundidad. La Pi AI Camera es excepcional en inferencia a 30 FPS con coste cero de CPU, pero solo ve en 2D — no sabe a qué distancia está lo que detecta. La OAK-D Lite te da esa tercera dimensión, y además es independiente: funciona con cualquier ordenador por USB, no necesita una Raspberry Pi específicamente.

Por otro lado, la Pi AI Camera tiene un ecosistema más simple (rpicam-hello y listo) y no necesita Python. Si tu proyecto es una cámara fija de vigilancia que solo necesita detectar personas, la Pi AI Camera es más barata y más sencilla. Si tu proyecto necesita saber dónde están las cosas en el espacio — un robot, un dron, un sistema de seguimiento — la OAK-D Lite es la que quieres.

Lo que no te van a contar

El Myriad X tiene 4 TOPS, que suena impresionante pero en la práctica limita los modelos a versiones ligeras. YOLO v8 en su versión completa no cabe — necesitas YOLO-nano o versiones podadas. Para la mayoría de proyectos de hobby y prototipado, sobra. Para producción industrial con decenas de clases y precisión sub-milimétrica, te vas a quedar corto.

El rango efectivo de profundidad empieza a los 20 centímetros y llega hasta unos 15 metros en condiciones ideales. A más de 8-10 metros, la precisión baja significativamente. Para interiores es perfecto; para exteriores con distancias largas (vigilancia de aparcamientos, por ejemplo), necesitarías algo con baseline más grande o un sensor LiDAR.

Y el software: DepthAI es potente pero tiene curva de aprendizaje. El concepto de “pipelines” — donde defines nodos de cámara, nodos de red neuronal y nodos de procesamiento y los conectas entre sí — es elegante una vez lo entiendes, pero los primeros 30 minutos leyendo documentación pueden ser confusos si vienes de “instalar app y darle a play”. Los ejemplos del repo oficial son tu mejor amigo para acortar esa curva.

Veredicto

La OAK-D Lite es la navaja suiza de la visión por computador accesible. Por 150 € tienes cámara de color, profundidad estéreo y un chip de inferencia neural en un dispositivo que pesa 61 gramos y se enchufa por USB-C. Si estás buscando un sensor para un robot, un sistema de seguimiento de personas con distancia real, o simplemente quieres experimentar con visión 3D e IA sin montar un setup de mil euros, este es el cacharro por el que empezar.