Un equipo de la Universidad Nacional de La Plata (UNLP) trabaja en el desarrollo de un sistema para traducir a texto, de manera automática, el lenguaje de señas que usan personas hipoacúsicas.
Funciona con una cámara de video conectada a una computadora que permite captar la posición y los movimientos de las manos de la persona que se expresa en lenguaje de señas y, con el uso de algoritmos, lo traduce a texto en tiempo real.
El doctor en Informática Franco Ronchetti explicó que comenzaron con dispositivos del estilo del controlador Kinect, de la consola Xbox de Microsoft, que reconoce gestos corporales. Afirmó que las manos pueden adquirir ‘muchas formas mientras va haciendo una seña’, por lo que clasificarlas ‘es complejo’.
El primer paso del proyecto consistió en el armado de una base de datos propia del Lenguaje de Señas Argentino, con 800 imágenes de las manos estáticas en las 16 posiciones que se usan durante el lenguaje de señas. ‘La idea es que se pueda usar una computadora común, o también se podrían filmar las señas con un teléfono’, contó Ronchetti. La investigación continuó con la filmación de las 64 señas que componen las palabras más usadas del Lenguaje de Señas y después de que un equipo de diez personas repitiera cinco veces cada seña frente a la cámara, se obtuvieron 3.200 videos que fueron analizados por el sistema para incorporar modos particulares de mover las manos en distintas personas.
Télam