Vídeo demonstra projeto desenvolvido por pesquisadores chineses.
O reconhecimento da linguagem de sinais pelo sensor de movimentos Kinect, do console de videogame Xbox, foi demonstrado esta semana por pesquisadores da Microsoft na China.
Conforme explicam os criadores do projeto, desenvolvido em Pequim, um algoritmo de reconhecimento de imagens 3D do Kinect foi usado para criar um sistema com duas funções. O 'Modo Tradução' reconhece e traduz a linguagem de sinais em textos ou voz enquanto o 'Modo de Comunicações' permite que um deficiente auditivo se comunique com outras pessoas on-line usando um avatar.
Atualmente, o sistema reconhece somente a linguagem de sinais americana, mas a Microsoft afirma que há potencial para ser compatível com todas as variações de linguagens de sinais. "Uma contribuição única deste projeto é o fato de ser um esforço conjunto entre pesquisadores de software deficientes auditivos", afirma Ming Zhou, diretor de pesquisas da do laboratório Microsoft Research na Ásia.
O trabalho, que contou com o apoio da Microsoft, foi desenvolvido por seis pesquisadores do Laboratório de Processamento de Informação Inteligente da Academia Chinesa de Ciências (CAS, da sigla em inglês) de Pequim.
O projeto foi demonstrado esta semana no evento 'Demo Fest', que reúne mais de 400 pesquisadores acadêmicos para compartilhar projetos, na sede da Microsoft, em Redmond, no Estado de Seattle (EUA).
Nenhum comentário:
Postar um comentário