Implementación de un sistema portátil de traducción del alfabeto dactilológico mexicano en Raspberry Pi
DOI:
https://doi.org/10.29057/icbi.v14iEspecial.15390Palabras clave:
Alfabeto dactilológico, Inclusión, Lenguaje de señas, Raspberry PiResumen
De acuerdo con datos del Instituto Nacional de Estadística y Geografía (INEGI) en México, más de 2.8 millones de personas presentan algún grado de discapacidad auditiva, y aproximadamente el 60 % de ellas enfrenta barreras para comunicarse con quienes no dominan o desconocen la Lengua de Señas Mexicana (LSM). En respuesta a esta problemática, se presenta un prototipo portátil basado en una Raspberry Pi y tecnologías de visión artificial, capaz de detectar y traducir de forma inmediata gesticulaciones correspondientes al alfabeto dactilológico de la LSM. El sistema despliega en pantalla una letra de forma aleatoria, espera que el usuario realice la seña correspondiente frente a la cámara y, a partir de las imágenes capturadas, aplica algoritmos de detección de la posición y movimiento de los dedos para verificar la correspondencia entre la gesticulación y la letra mostrada. Esta propuesta, de bajo costo y escalable, busca ofrecer una herramienta tecnológica con potencial educativo que facilite el aprendizaje del alfabeto en lengua de señas. Aunque aún no se ha implementado en entornos escolares, los resultados preliminares muestran su viabilidad como recurso de apoyo para procesos de enseñanza.
Descargas
Citas
Bradski, G., & Kaehler, A. (2008). Learning OpenCV: Computer vision with the OpenCV library. O’Reilly Media. ISBN 978-0-596-51613-0.
BrightSign Glove. (2022). Translate any sign into any language [Sitio web]. https://www.brightsignglove.com/
Camgoz, N. C., Koller, O., Hadfield, S., & Bowden, R. (2020). Sign language transformers: Joint end-to-end sign language recognition and translation. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) (pp. 10023–10033). IEEE. https://doi.org/10.1109/CVPR42600.2020.01004
CyberGlove Systems. (2015). CyberGlove II [Sitio web]. https://www.cyberglovesystems.com/cyberglove-ii/
González, C., Martínez, A., & López, J. (2021). Accesibilidad y comunicación en personas con discapacidad auditiva en México. Revista Latinoamericana de Inclusión Educativa, 15(1), 45–59.
Instituto Nacional de Estadística y Geografía (INEGI). (2020). Censo de Población y Vivienda 2020. INEGI.
Instituto Nacional de Estadística y Geografía (INEGI). (2024, 28 de noviembre). Estadísticas a propósito del Día Internacional de las Personas con Discapacidad (3 de diciembre) (Comunicado de prensa núm. 684/24) [PDF]. https://www.inegi.org.mx/contenidos/saladeprensa/aproposito/2024/EAP_PCD24.pdf
Li, D., Rodriguez, C., Yu, X., & Li, H. (2020). Word-level deep sign language recognition from video: A new large-scale dataset and methods comparison. In Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision (WACV) (pp. 1459–1469). IEEE. https://openaccess.thecvf.com/content_WACV_2020/papers/Li_Wordlevel_Deep_Sign_Language_Recognition_from_Video_A_New_Largescale_WACV_2020_paper.pdf
Li, D., Yu, X., Xu, C., & Li, H. (2023). Sign language recognition with transformer-based spatio-temporal features. Pattern Recognition, 139, 109488. https://doi.org/10.1016/j.patcog.2023.109488
Lugaresi, C., Tang, J., Nash, H., McClanahan, C., Uboweja, E., Hays, M., & Grundmann, M. (2019, 14 de junio). MediaPipe: A framework for building perception pipelines [Preprint]. arXiv. https://arxiv.org/abs/1906.08172
Muhammad, Y., Jan, M. A., Ahmad, S., Mastorakis, S., & Zada, B. (2022). A deep learning-based smart assistive framework for visually impaired people. In Proceedings of the 2022 IEEE International Conference on Omni-Layer Intelligent Systems (COINS). IEEE. https://doi.org/10.1109/COINS54846.2022.9854984
Organización de las Naciones Unidas (ONU). (2006). Convención sobre los Derechos de las Personas con Discapacidad.
Szeliski, R. (2022). Computer vision: Algorithms and applications (2.ª ed.). Springer. https://doi.org/10.1007/978-3-030-34372-9
Upton, E., & Halfacree, G. (2014). Raspberry Pi user guide (3.ª ed.). John Wiley & Sons.
Wang, Y., Chen, J., & Li, F. (2020). Real-time sign language recognition using deep learning models. International Journal of Computer Vision and Signal Processing, 8(4), 112–125.
Zhang, F., Bazarevsky, V., Vakunov, A., Tkachenka, A., Sung, G., Chang, C., & Grundmann, M. (2020). MediaPipe Hands: On-device real-time hand tracking [Preprint]. arXiv. https://arxiv.org/abs/2006.10214
Descargas
Publicado
Cómo citar
Número
Sección
Licencia
Derechos de autor 2026 Víctor Becerra-Tapia, Guillermo Rey Peñaloza-Mendoza, Mario Salvador Castro Zenil, Netzha Valentino Vázquez-Belmonte

Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial-SinDerivadas 4.0.










