Hace poco, he tenido la oportunidad de curiosear con el Kinect de unos amigos míos. Yo sabía, por lo que ellos me contaban, las posibilidades que se presentaban al poder utilizar un interfaz gestual en una consola de videojuegos. Pero intuía que se podía hacer mucho más, aparte de jugar al Kinect Adventures o al Dance Accademy.
Las características de esta máquina son de sobra conocidas: dos cámaras RGB calibradas para proporcionar imagen normal en color y de profundidad (es decir, nos proporciona las coordenadas x,y,z en 3D de cada punto de la imagen con respecto a la cámara), y una cámara infrarroja.
Si buceamos un poco en la red de redes, se pueden encontrar aplicaciones la mar de curiosas realizadas por una serie de gente que, y sin ánimo de ofender a nadie, considero que son unos frikis de aúpa. Debo admitir que yo también me considero de lo más friki, y orgulloso de serlo.
Estas aplicaciones van desde simples pruebas de concepto (para hacer videoconferencias, por ejemplo) hasta aplicaciones completas (para controlar un sistema operativo únicamente a base de gestos). Tengo la intención de presentar las más interesantes a lo largo de varias entradas en MyTechFascination.
Es de rigor comenzar con la primera aplicación que surgió para este aparato cuando se hackeó. El sujeto que aparece en el vídeo siguiente pensó que, ya que se conoce la posición 3D de cada punto de la imagen se podría utilizar eso para generar una representación 3D de la escena que capta la cámara. Una imagen vale más que mil palabras.
Realmente, esta primera aplicación, a pesar de lo impresionante que resulta, no requiere un procesamiento especialmente complicado de la señal captada por la cámara.
Un mayor nivel de complejidad está presente en el siguiente efecto. ¿Quién no recuerda el efecto de transparencia de la película Predator? Pues bien, este efecto está al alcance de nuestras manos con un simple PC. Echadle un vistazo por vosotros mismos.
Gracias una vez más a que tenemos datos en 3D de la imagen, es mucho más sencillo segmentar el sujeto que se desee, es decir, aislarlo del resto de sujetos y objetos de la escena. A partir de ahí, basta con sustituir dicho sujeto por una imagen modificada del fondo de la escena (tomada con anterioridad, seguramente).
Para acabar por hoy, un efecto que traerá buenos recuerdos a todos aquellos que, como yo, ya tengan una cierta edad. Me refiero, cómo no, al kame-hame de Dragon Ball. Miradlo y me comentáis qué os parece ;-)
¿A que más de uno ha esbozado una sonrisa? La verdad es que no está mal, aunque es claramente mejorable.
En este caso, este friki seguramente haya utilizado OpenNI y los drivers de Kinect que proporcionan las coordenadas (x,y,z) de todas las articulaciones. De esta forma, conoce la posición de las manos y, a partir de ahí, determina el efecto a mostrar. En teoría es sencillo, pero os aseguro que, en la práctica, es más complicado de lo que parece.
Bueno, pues hasta aquí llega este botón de muestra. Hay mucho más. Mi intención es la de ir aumentando la calidad y el nivel técnico de estas aplicaciones en sucesivas entradas. No os las perdáis, porque tengo preparada una para la última entrega de esta serie...
¿Qué os han parecido? ¿Qué efecto o aplicación os gustaría tener? ¿Pensáis que una interfaz gestual sería útil pra alguna aplicación o algún uso concreto? No os cortéis. Comentad, comentad...
Me ha gustado mucho lo de bola de dragón!! Estoy esperando a ver que nos descubres en la segunda parte...
ResponderEliminarMe alegra mucho este primer comentario en mi blog!!! Esto marcha!! Esto anima a continuar con esta labor de promocionar las nuevas tecnologías.
ResponderEliminar