Facebook AI将推出M2M-100,这是首个多语言机器翻译(MMT)模型,它可以在100种语言中的任意两种之间进行翻译,而无需依赖英语数据。M2M-100总共训练了2200个语言方向,比以前最好的以英语为中心的多语言模型多了10倍。部署M2M-100可以为数十亿人提高翻译质量,特别是那些使用低资源语言的人。
本文最初发布于Facebook官网,由InfoQ中文站翻译并分享。
-
Facebook AI将推出M2M-100,这是首个多语言机器翻译(MMT)模型,它可以在100种语言中的任意两种之间进行翻译,而无需依赖英语数据。它是开源的。
-
在翻译时,比如中译法,大多数以英语为中心的多语言模型都进行中译英和英译法两种训练,因为英语训练数据使用最广泛。我们的模型直接在中译法数据上进行训练,以便更好地保留意义。在评价机器翻译时广泛使用的BLEU度量标准下,它比以英语为中心的系统高出10分。
Comments