باز کردن منو اصلی

تغییرات

== ارزیابی ترجمهٔ ماشینی ==
یکی از مسائلی که همواره در زمینه ترجمهٔ ماشینی مورد توجه بوده‌است، روشها و پارامترهای ارزیابی نتایج ترجمه‌است. قدیمی‌ترین روش استفاده از داورهای انسانی برای ارزیابی کیفیت یک ترجمه است. اگرچه ارزیابی توسط انسان زمان‌بر است اما هنوز قابل اطمینان‌ترین راه برای مقایسهٔ سیستم‌های مختلف همانند سیستم‌های مبتنی بر روش‌های آماری و قاعده‌مند است.
ابزارهای ارزیابی خودکار شامل [[بلو]] محصول شرکت آی‌بی‌ام(BLEU) <ref>Papineni, K., Roukos, S., Ward, T. and Zhu, W.J., 2002, July. BLEU: a method for automatic evaluation of machine translation. In Proceedings of the 40th annual meeting on association for computational linguistics (pp. 311-318). Association for Computational Linguistics.</ref> ، نیست(NIST) و متئور(METEOR) می‌باشند. همچنین، دانشگاه بارسلون سیستمی را با نام IQ برای ارزیابی سیستم‌های ترجمه ماشینی ارائه داده‌است که بر اساس چندین روش می‌تواند ارزیابی را انجام دهد. این سیستم ارزیابی بصورت [[متن‌باز]] بوده و هر کسی می‌تواند بر اساس نیاز خودش آنرا تنظیم نموده و استفاده نماید.
 
بسنده کردن به ترجمهٔ ماشین بدون ویرایش مجدد آن، این حقیقت را که ارتباطات بوسیلهٔ زبان انسان با مفاهیم نهفته شده در آن است، نادیده می‌گیرد؛ و حقیقت دیگر این است که حتی متون کاملاً ترجمه شده توسط انسان نیز ممکن است خطا و اشتباه داشته‌است. درنتیجه برای اطمینان حاصل کردن از اینکه ترجمهٔ تولید شده توسط ماشین برای انسان مورد استفاده خواهد بود و کیفیت قابل قبولی خواهد داشت، متون ترجمه شده توسط ماشین باید نهایتاً توسط انسان بازبینی و ویرایش شوند. گرچه، سیستم‌هایی که مبتنی بر روشهای خاصی از ترجمه ماشینی عمل می‌کنند، بعضاً مستقلاً خروجی قابل قبولی را تولید می‌کنند که نیازی به نظارت نهایی انسان ندارد.