ترجمه ماشینی: تفاوت میان نسخهها
محتوای حذفشده محتوای افزودهشده
Scholar.me (بحث | مشارکتها) |
Scholar.me (بحث | مشارکتها) |
||
خط ۱۰۴:
== ارزیابی ترجمهٔ ماشینی ==
یکی از مسائلی که همواره در زمینه ترجمهٔ ماشینی مورد توجه بودهاست، روشها و پارامترهای ارزیابی نتایج ترجمهاست. قدیمیترین روش استفاده از داورهای انسانی برای ارزیابی کیفیت یک ترجمه است. اگرچه ارزیابی توسط انسان زمانبر است اما هنوز قابل اطمینانترین راه برای مقایسهٔ سیستمهای مختلف همانند سیستمهای مبتنی بر روشهای آماری و قاعدهمند است.
ابزارهای ارزیابی خودکار شامل [[بلو]] محصول شرکت آیبیام(BLEU) <ref>Papineni, K., Roukos, S., Ward, T. and Zhu, W.J., 2002, July. BLEU: a method for automatic evaluation of machine translation. In Proceedings of the 40th annual meeting on association for computational linguistics (pp. 311-318). Association for Computational Linguistics.</ref> ، نیست(NIST) و متئور(METEOR) میباشند. همچنین، دانشگاه بارسلون سیستمی را با نام IQ برای ارزیابی سیستمهای ترجمه ماشینی ارائه دادهاست که بر اساس چندین روش میتواند ارزیابی را انجام دهد. این سیستم ارزیابی بصورت [[متنباز]] بوده و هر کسی میتواند بر اساس نیاز خودش آنرا تنظیم نموده و استفاده نماید.
بسنده کردن به ترجمهٔ ماشین بدون ویرایش مجدد آن، این حقیقت را که ارتباطات بوسیلهٔ زبان انسان با مفاهیم نهفته شده در آن است، نادیده میگیرد؛ و حقیقت دیگر این است که حتی متون کاملاً ترجمه شده توسط انسان نیز ممکن است خطا و اشتباه داشتهاست. درنتیجه برای اطمینان حاصل کردن از اینکه ترجمهٔ تولید شده توسط ماشین برای انسان مورد استفاده خواهد بود و کیفیت قابل قبولی خواهد داشت، متون ترجمه شده توسط ماشین باید نهایتاً توسط انسان بازبینی و ویرایش شوند. گرچه، سیستمهایی که مبتنی بر روشهای خاصی از ترجمه ماشینی عمل میکنند، بعضاً مستقلاً خروجی قابل قبولی را تولید میکنند که نیازی به نظارت نهایی انسان ندارد.
|