引入长思维链!微信基于阿里千问大模型搞出个翻译版o1

DRT-o1 将长 CoT 的成功引入神经机器翻译。

引入长思维链!微信基于阿里千问大模型搞出个翻译版o1

原标题:引入长思维链!微信基于阿里千问大模型搞出个翻译版o1
文章来源:机器之心
内容字数:5410字

微信AI团队提出DRT-o1:赋予机器翻译“长思考”能力

1. **背景:** 长思维链(CoT)在推理任务中展现出显著优势。微信AI团队受此启发,提出DRT-o1模型,将长CoT引入神经机器翻译(MT),尤其针对文学翻译中需要深层理解比喻、隐喻等复杂语义的场景。

2. **挑战与解决方法:** 并非所有翻译场景都需要长思考。DRT-o1专注于处理需要深层语义理解的文学翻译,例如包含明喻和隐喻的句子。为此,研究团队面临两个关键挑战:一是识别需要长思考的翻译场景;二是合成具有长思考过程的机器翻译数据。

3. **数据合成方法:** 研究人员提出一个多智能体框架,包含三个智能体:翻译者、顾问和评估者。该框架迭代地进行翻译,顾问提供改进建议,评估者给出评分。迭代过程直到达到预设评分阈值或最大迭代次数才停止。整个过程模拟了人类翻译中“长思考”的步骤。最终生成的“长思考”过程由GPT-4o进行润色,提升可读性和流畅性。

4. **数据来源和处理:** 研究人员从古腾堡计划中筛选出约63K个包含比喻或隐喻且直译效果不佳的英语句子,作为训练数据。这些句子经过多智能体框架处理,生成22264个包含长思考过程的英译汉样本。

5. **模型训练和实验结果:** 研究人员使用Qwen2.5-7B-Instruct和Qwen2.5-14B-Instruct作为基础模型,分别训练得到DRT-o1-7B和DRT-o1-14B。实验结果表明,DRT-o1在文学翻译任务上显著优于基线模型,例如DRT-o1-7B在BLEU、CometKiwi和CometScore指标上均有大幅提升。

6. **主要贡献:** DRT-o1模型成功将长CoT应用于机器翻译,并提出了一种有效的数据合成方法,通过多智能体框架模拟人类翻译中的长思考过程,最终在文学翻译任务中取得了显著成果。

7. **总结:** DRT-o1为机器翻译领域引入了一种新的范式,证明了长思考在处理复杂语言任务中的有效性,为未来研究提供了新的方向。


联系作者

文章来源:机器之心
作者微信:
作者简介:专业的人工智能媒体和产业服务平台

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...