Enquanto vimos salões virtuais baseados em Kinect antes, a equipe do Arbuzz está tomando uma abordagem um pouco diferente (tradução) para o jogo de vestido digital. Em vez de utilizar fotos planas de roupas sobrepostas ao corpo do sujeito, sua solução usa modelos 3D completos das roupas para realizar o efeito desejado. Essa técnica permite que elas produzam uma experiência mais verdadeira à vida, onde as vestes estão em conformidade com o sujeito, fluindo naturalmente com os movimentos do usuário.
Como muitos outros hacks kinect, eles utilizam o Openni, bem como a Nite para adquirir dados esqueléticos do sensor. O aplicativo em si foi escrito em C # com ferramentas de avanço do jogo XNA da Microsoft, bem como usa um mecanismo físico especial para tornar o pano simulado de uma forma sensata
[Lukasz] afirma que o sistema ainda está em sua infância, bem como precisará de muito trabalho antes de estarem totalmente felizes com os resultados. De onde estamos sentados, o vídeo de demonstração embutido abaixo é bastante legal, mesmo que seja um pouco áspero em torno das bordas. Ficamos especialmente satisfeitos em ver a interface kinect nativa do Xbox colocar para trabalhar em um projeto DIY, bem como estamos interessados em ver exatamente como as coisas parecem quando colocam os toques finais nele.
[Vimeo http://vimeo.com/25933286 w = 470]