Tradução, aplicativo, rede neural, LIBRAS.
O projeto tem como objetivo criar um aplicativo inovador capaz de traduzir sinais de Libras (Língua Brasileira de Sinais) em tempo real, utilizando imagens capturadas por uma câmera. No Brasil, cerca de 10 milhões de pessoas são surdas, mas apenas 5% da população domina Libras, evidenciando a urgência de ferramentas que promovam a inclusão dessa comunidade na sociedade. Sobre esse prisma, o aplicativo busca facilitar a comunicação em diversos ambientes, como escolas, serviços de saúde e espaços públicos, onde a ausência de tradutores humanos é notável. Durante o desenvolvimento, desafios significativos foram enfrentados, como a complexidade da programação e a busca pelas tecnologias necessárias para alcançar uma tradução precisa. A padronização dos sinais de Libras apresentou dificuldades, especialmente devido à diversidade de gírias utilizadas pela comunidade surda, o que complicou a criação de um modelo de rede neural eficaz. Com o objetivo de superar essas barreiras, foram implementadas redes neurais de imagens para o reconhecimento de sinais estáticos e o uso da tecnologia Mediapipe para a detecção de pontos-chave como mãos, face e corpo. A técnica de LSTM (Long-Short Term Memory) foi empregada para interpretar gestos dinâmicos a partir de frames capturados em vídeo. O desempenho do sistema foi avaliado com base na fidelidade da detecção dos sinais, utilizando cerca de 2.500 imagens por gesto para o treinamento das redes neurais. O aplicativo mostrou-se promissor, com uma taxa de precisão satisfatória na tradução de sinais básicos, embora sinais mais complexos ainda exijam melhorias. Os próximos passos incluem a expansão do vocabulário de sinais reconhecidos, a otimização das redes neurais para torná-las mais leves e a implementação de processamento remoto, permitindo que o aplicativo seja acessível em dispositivos móveis com menor capacidade. Dessa forma, o projeto será capaz de gerar um grande avanço para a inclusão da comunidade surda na sociedade atual.