Estudiantes de la Uninorte desarrollaron modelo con base en IA que traduce lenguaje de señas. /Foto Uninorte
Viernes, 22 de Marzo de 2024
La ciencia siempre debe estar al servicio de las necesidades y problemáticas de la población. Ejemplo de ello son Jesús David Quiroz Rojas y María Camila Gómez, estudiantes de noveno semestre deIngeniería Electrónicaen la Universidad del Norte, que desarrollan un modelo de inteligencia artificial que busca traducir la lengua de señas a texto y voz. La idea es ofrecer una solución innovadora de educación inclusiva a quienes sufren discapacidad auditiva.
De acuerdo con el claustro de educación superior, el modelo de traducción de lengua de señas usa técnicas avanzadas de inteligencia artificial como machine learning y deep learning.
La aplicación en principio usaba un modelo predictivo de árbol de decisión, pero lo cambiaron a un modelo LSTM (Long Short Term Memory). De esta forma, utiliza una combinación de redes neuronales artificiales y técnicas de procesamiento de imágenes para detectar y traducir los gestos de la lengua de señas.
"El modelo detecta la figura de la mano, gracias a una librería de Google, la cual marca unos puntos clave de la mano y hace la unión de esos puntos para obtener una imagen de líneas o de esqueleto de esta. De ahí lo que hacemos es extraer esos puntos y, basados en la posición que tienen esos puntos y su distancia, determinamos cuál es la posición exacta de la mano en ese momento y así el tipo de señal", explica Quiroz.