10月27, 2020

Facebook推出首个无需依赖英语即可翻译100种语言的AI模型

Facebook AI将推出M2M-100,这是首个多语言机器翻译(MMT)模型,它可以在100种语言中的任意两种之间进行翻译,而无需依赖英语数据。M2M-100总共训练了2200个语言方向,比以前最好的以英语为中心的多语言模型多了10倍。部署M2M-100可以为数十亿人提高翻译质量,特别是那些使用低资源语言的人。

本文最初发布于Facebook官网,由InfoQ中文站翻译并分享。

image

  • Facebook AI将推出M2M-100,这是首个多语言机器翻译(MMT)模型,它可以在100种语言中的任意两种之间进行翻译,而无需依赖英语数据。它是开源的。

  • 在翻译时,比如中译法,大多数以英语为中心的多语言模型都进行中译英和英译法两种训练,因为英语训练数据使用最广泛。我们的模型直接在中译法数据上进行训练,以便更好地保留意义。在评价机器翻译时广泛使用的BLEU度量标准下,它比以英语为中心的系统高出10分。

本文链接:https://blog.jnliok.com/post/ROc0YEbtecYhmpwWez0b.html

-- EOF --

Comments