La evaluación de la calidad de textos poseditados

Palabras clave: traducción automática, posedición, calidad de la traducción, evaluación de la calidad

Resumen

La presente propuesta de investigación es de corte cualitativo, pues indaga en la descripción de las características del fenómeno expuesto (Hernández et al., 2006), que es la evaluación de la calidad de un texto traducido; además, se presentan a manera de propuesta de evaluación de la calidad de la posedición de textos técnicos traducidos del inglés al español,  las características que se toman en cuenta para evaluar la calidad de la traducción de textos técnicos y adoptando la posedición como proceso de mejora de los textos que fueron pretraducidos con programas de traducción automática. Por lo que, con base en el análisis de diferentes autores, tales como Papieni (2002) con la métrica BLEU, o Toudic et al. (2014) con su Grille multicritères pour l’évaluation de la qualité en traduction spécialisée, se toman en cuenta criterios tales como: el sentido, el estilo, la gramática y la sintaxis, la ortografía y la tipografía, la fraseología, la terminología, la omisión o adición, la localización y los errores en un texto traducido. Es entonces una propuesta que contempla dos categorías principales para la posedición de un texto, que son: la inteligibilidad, o comprensibilidad del texto, y la fidelidad, o el significado del texto completo. Se espera poder obtener resultados favorables al aplicar el baremo en un caso real de traductores noveles que poseditaron un texto técnico corto pretraducido del inglés al español.

 

Descargas

La descarga de datos todavía no está disponible.

Citas

Banerjee, S., & Lavie, A. (2005). "METEOR: An Automatic Metric for MT Evaluation with Improved Correlation with Human Judgments." Proceedings of the ACL Workshop on Intrinsic and Extrinsic Evaluation Measures for Machine Translation and/or Summarization, 65-72.

Callison-Burch, C., et al. (2006). "Re-evaluating the Role of BLEU in Machine Translation Research." Proceedings of the 11th Conference of the European Chapter of the Association for Computational Linguistics, 249-256.

Chen, W., & Cherry, C. (2014). "A Systematic Comparison of Smoothing Techniques for Sentence-Level BLEU." Proceedings of the Ninth Workshop on Statistical Machine Translation, 362-367.

Domínguez, A. (2002). Lingüística computacional: un esbozo. En Boletín de Lingüística. Vol. 18, pp. 104-119 https://biblat.unam.mx/hevila/Boletindelinguistica/2002/no18/5.pdf

Fernández-Rodríguez, M. (2010). Evolución de la traducción asistida por ordenador. De las herramientas de apoyo a las memorias de traducción. En SENDEBAR. Revista de Traducción e Interpretación. Vol. 21. 201-230. Universidad de Granada. https://doi.org/10.30827/sendebar.v21i0.374

Gamal, M. y Bárcena, M. (2017). Traducción Automática y Traducción Asistida por Ordenador. UNED.

García, D. (2003). Funcionalismo y lingüística: La Gramática Funcional de S. C. Dick. Universidad de Oviedo.

García, M., & et, a. (n.d.). Adapting Rubrics for Diverse Translation Genres. Journal of Applied Linguistics, 12(3), 221-238.

Guerrero Romero, L. (n.d.). La posedición de traducción automática. Universitat Oberta de Cataluya.

Hernández Sampieri, R., Fernández Collado, C., & Baptista Lucio, P. (2016). Metodología de la investigación (4a ed.). McGraw Hill. México.

Jones, A., & Martínez, L. (2022). Evaluating Translation: Best Practices for Rubric Development. In F. Zanettin & C. Rundle (Eds.), The Routledge Handbook of Translation and Methodology (pp. 45-62). Taylor & Francis Group. 10.4324/9781315158945

Martín, J. (2010). Sobre la evaluación de traducciones en el ámbito académico. RESLA 23, pp. 229-245. Universidad Pablo de Olavide.

Papineni, K., et al. (2002). "BLEU: A Method for Automatic Evaluation of Machine Translation." Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, 311-318.

Rodríguez, S. (2020, julio/agosto/septiembre). Traducción automática y posedición en la DGT: de la teoría a la práctica. Puntoycome, 1(167), 13-27. https://ec.europa.eu/translation/spanish/magazine/documents/pyc_167_es.pdf

Rojo, A. (2013). Diseños y métodos de investigación en traducción. Editorial Síntesis, S. A. Madrid.

Smith, R. (2020). Beyond Words: Cultural Coherence in Translation Assessment. International Journal of Translation Studies, 15(2), 78-95.

Soriano, A. (2016). ¿Qué es la posedición? [electrónico]. https://en.localconcept.com/blog/2016/03/10/traduccion-punto-la-posedicion/

Toudic, D. et al. (2014). Du contexte didactique aux pratiques professionnelles: proposition d’une grille multicritères pour l’ évaluation de la qualité en traduction spécialisé. ILCEA Revue d’Institut des langues et cultures d’Europe, Amérique, Afrique, Asie et Australie. Pp. 1-19 http://journals.open edition.org/ilcea/2517

Véronis, J. (2000). Parallel text processing: Alignment and Use of Translation Corpora. Kluwer Academic Publishers.

Wagner, E. (1985). Post-editing Systran- A challenge for comission translators. Terminologie et traduction, 1(30), 1-6. http://www.mt-archive.info/70/T&T-1985-Wagner.pdf

Williams, K., & Johnson, P. (2019). Scoring Clarity: The Role of Rubrics in Translation Evaluation. Journal of Comparative Linguistics, 18(1), 78-95.

Publicado
2024-11-05
Cómo citar
Leyra Parrilla, C. E. (2024). La evaluación de la calidad de textos poseditados. Revista Lengua Y Cultura, 6(11), 21-28. https://doi.org/10.29057/lc.v6i11.13442
Tipo de manuscrito
Artículos