Implementación de un sistema portátil de traducción del alfabeto dactilológico mexicano en Raspberry Pi

Autores/as

DOI:

https://doi.org/10.29057/icbi.v14iEspecial.15390

Palabras clave:

Alfabeto dactilológico, Inclusión, Lenguaje de señas, Raspberry Pi

Resumen

De acuerdo con datos del Instituto Nacional de Estadística y Geografía (INEGI) en México, más de 2.8 millones de personas presentan algún grado de discapacidad auditiva, y aproximadamente el 60 % de ellas enfrenta barreras para comunicarse con quienes no dominan o desconocen la Lengua de Señas Mexicana (LSM). En respuesta a esta problemática, se presenta un prototipo portátil basado en una Raspberry Pi y tecnologías de visión artificial, capaz de detectar y traducir de forma inmediata gesticulaciones correspondientes al alfabeto dactilológico de la LSM. El sistema despliega en pantalla una letra de forma aleatoria, espera que el usuario realice la seña correspondiente frente a la cámara y, a partir de las imágenes capturadas, aplica algoritmos de detección de la posición y movimiento de los dedos para verificar la correspondencia entre la gesticulación y la letra mostrada. Esta propuesta, de bajo costo y escalable, busca ofrecer una herramienta tecnológica con potencial educativo que facilite el aprendizaje del alfabeto en lengua de señas. Aunque aún no se ha implementado en entornos escolares, los resultados preliminares muestran su viabilidad como recurso de apoyo para procesos de enseñanza.

Descargas

Los datos de descargas todavía no están disponibles.

Biografía del autor/a

Mario Salvador Castro Zenil, Tecnológico Nacional de México

Profesor Asignatura B del ITSPA

Citas

Bradski, G., & Kaehler, A. (2008). Learning OpenCV: Computer vision with the OpenCV library. O’Reilly Media. ISBN 978-0-596-51613-0.

BrightSign Glove. (2022). Translate any sign into any language [Sitio web]. https://www.brightsignglove.com/

Camgoz, N. C., Koller, O., Hadfield, S., & Bowden, R. (2020). Sign language transformers: Joint end-to-end sign language recognition and translation. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) (pp. 10023–10033). IEEE. https://doi.org/10.1109/CVPR42600.2020.01004

CyberGlove Systems. (2015). CyberGlove II [Sitio web]. https://www.cyberglovesystems.com/cyberglove-ii/

González, C., Martínez, A., & López, J. (2021). Accesibilidad y comunicación en personas con discapacidad auditiva en México. Revista Latinoamericana de Inclusión Educativa, 15(1), 45–59.

Instituto Nacional de Estadística y Geografía (INEGI). (2020). Censo de Población y Vivienda 2020. INEGI.

Instituto Nacional de Estadística y Geografía (INEGI). (2024, 28 de noviembre). Estadísticas a propósito del Día Internacional de las Personas con Discapacidad (3 de diciembre) (Comunicado de prensa núm. 684/24) [PDF]. https://www.inegi.org.mx/contenidos/saladeprensa/aproposito/2024/EAP_PCD24.pdf

Li, D., Rodriguez, C., Yu, X., & Li, H. (2020). Word-level deep sign language recognition from video: A new large-scale dataset and methods comparison. In Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision (WACV) (pp. 1459–1469). IEEE. https://openaccess.thecvf.com/content_WACV_2020/papers/Li_Wordlevel_Deep_Sign_Language_Recognition_from_Video_A_New_Largescale_WACV_2020_paper.pdf

Li, D., Yu, X., Xu, C., & Li, H. (2023). Sign language recognition with transformer-based spatio-temporal features. Pattern Recognition, 139, 109488. https://doi.org/10.1016/j.patcog.2023.109488

Lugaresi, C., Tang, J., Nash, H., McClanahan, C., Uboweja, E., Hays, M., & Grundmann, M. (2019, 14 de junio). MediaPipe: A framework for building perception pipelines [Preprint]. arXiv. https://arxiv.org/abs/1906.08172

Muhammad, Y., Jan, M. A., Ahmad, S., Mastorakis, S., & Zada, B. (2022). A deep learning-based smart assistive framework for visually impaired people. In Proceedings of the 2022 IEEE International Conference on Omni-Layer Intelligent Systems (COINS). IEEE. https://doi.org/10.1109/COINS54846.2022.9854984

Organización de las Naciones Unidas (ONU). (2006). Convención sobre los Derechos de las Personas con Discapacidad.

Szeliski, R. (2022). Computer vision: Algorithms and applications (2.ª ed.). Springer. https://doi.org/10.1007/978-3-030-34372-9

Upton, E., & Halfacree, G. (2014). Raspberry Pi user guide (3.ª ed.). John Wiley & Sons.

Wang, Y., Chen, J., & Li, F. (2020). Real-time sign language recognition using deep learning models. International Journal of Computer Vision and Signal Processing, 8(4), 112–125.

Zhang, F., Bazarevsky, V., Vakunov, A., Tkachenka, A., Sung, G., Chang, C., & Grundmann, M. (2020). MediaPipe Hands: On-device real-time hand tracking [Preprint]. arXiv. https://arxiv.org/abs/2006.10214

Descargas

Publicado

2026-03-20

Cómo citar

Becerra-Tapia, V., Peñaloza-Mendoza, G. R., Castro Zenil, M. S., & Vázquez-Belmonte , N. V. (2026). Implementación de un sistema portátil de traducción del alfabeto dactilológico mexicano en Raspberry Pi. Pädi Boletín Científico De Ciencias Básicas E Ingenierías Del ICBI, 14(Especial), 149–156. https://doi.org/10.29057/icbi.v14iEspecial.15390

Número

Sección

Artículos de investigación