1月16日,谷歌正式推出全新开放翻译模型系列TranslateGemma。据了解,该系列模型基于Gemma 3开发,包含4B、12B和27B三种参数规模。


据介绍,TranslateGemma在多项基准测试中表现出较高的效率。其中,12B版本在WMT24++数据集上的表现超越了参数规模为其两倍的基准模型,在涵盖55种语言的测试中,相比基础模型,其错误率有所降低。据悉,该模型系列的4B版本在部分场景下的性能可与更大的12B基准模型相媲美。

在技术实现上,TranslateGemma采用了特定的两阶段微调方案,即先在有监督的平行语料库上进行微调,再通过强化学习进一步优化翻译质量。该模型支持包括主流及低资源语言在内的多种语言对,并具备多模态能力。


为适配不同的部署需求,该系列模型提供了多种参数规格。其中,4B模型针对移动和边缘设备优化,12B模型可在消费级笔记本电脑上运行,而27B模型则适用于对翻译精度有更高要求的场景。目前,模型权重已可通过Hugging Face和Kaggle等平台获取。(袁宁)