0
| 本文作者: 二維馬曉寧 | 2025-10-24 10:43 |
雷峰網(wǎng)(公眾號:雷峰網(wǎng))訊,2025年國際機器翻譯大賽WMT (Conference on Machine Translation) 宣布最終排名,阿里國際AI Business的翻譯大模型Marco-MT-Algharb斬獲6項冠軍,4項亞軍和2項季軍。
其中,在最受關(guān)注的英中語向上,Marco-MT超越了Gemini 2.5 Pro、GPT-4.1、Claude 4和Mistral-Medium等所有頂尖閉源AI系統(tǒng),登頂榜首。
阿里國際的Marco-MT模型參加的是WMT競賽中難度更高的受限賽道。相比于非受限賽道,受限賽道不僅要求模型能夠處理文學(xué)、新聞、社交媒體等多樣化內(nèi)容,還需嚴(yán)格遵守僅使用開源數(shù)據(jù)和開源模型,且模型規(guī)模不超過20B的限制條件。
Marco-MT此次奪冠,關(guān)鍵在于將豐富的電商翻譯模型訓(xùn)練經(jīng)驗與一套原創(chuàng)訓(xùn)練方法M2PO(多階段偏好優(yōu)化)相結(jié)合,成功將強化學(xué)習(xí)范式應(yīng)用于大模型翻譯領(lǐng)域。
該系統(tǒng)分三步提升翻譯質(zhì)量:先通過兩輪監(jiān)督微調(diào)拓寬知識基礎(chǔ);再引入強化學(xué)習(xí),讓模型學(xué)會判斷譯文優(yōu)劣;最后在解碼階段融合詞對齊與重排序技術(shù),在保證流暢的同時精準(zhǔn)還原原文,顯著提升翻譯的準(zhǔn)確性和忠實度。
此次比賽模型已開源,可在Hugging Face了解技術(shù)詳情、在線體驗翻譯:
Hugging Face: https://huggingface.co/AIDC-AI/Marco-MT-Algharb
演示系統(tǒng): https://huggingface.co/spaces/AIDC-AI/Marco-MT-Algharb
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。