原标题:代码模型自我进化超越GPT-4o蒸馏!UIUC伯克利等提出自对齐方法 | NIPS 2024
文章来源:新智元
内容字数:6411字
开头
近期,来自UIUC和伯克利的研究人员提出了一种新的自对齐方法SelfCodeAlign,旨在通过自生成的数据实现代码模型的指令调优,效果超越目前主流的蒸馏方法。这一研究为大规模语言模型(LLM)在代码生成和优化领域的应用提供了新的思路和方法。
1. SelfCodeAlign的创新方法
SelfCodeAlign的核心在于利用相同基础模型进行推理,通过三个步骤实现自对齐。首先,从高质量的种子代码片段中提取不同的编码概念,接着生成新任务的指令,并验证这些指令的有效性。最后,选择通过验证的示例进行指令调优。这种方法完全依赖模型自生成的数据,无需人工注释或蒸馏,且效果显著提升。
2. 实验结果及性能评估
实验表明,使用SelfCodeAlign对CodeQwen1.5-7B进行指令微调,HumanEval+的pass@1达到了67.1,超过了CodeLlama-70B-Instruct等大型模型。同时,在函数生成、类生成和数据科学编程等基准测试中,SelfCodeAlign均表现优异,尤其在HumanEval+上超越了基于GPT-3.5-Turbo的蒸馏方法。
3. 自对齐的具体流程
SelfCodeAlign的具体流程包括种子选择、概念生成和执行筛选。研究人员从The Stack V1中收集高质量的种子代码片段,并根据这些片段生成多样化的编码任务。接着,模型通过自我验证的测试来确保生成代码的正确性,最终筛选出有效的指令用于微调。
4. 多任务适应性和广泛应用
SelfCodeAlign适用于不同规模的LLM,能够在多种编码任务中展现出色的性能。无论是函数生成、类生成还是数据科学编程,SelfCodeAlign均证明了其强大的能力,尤其是在代码编辑任务中也展现出优良的表现。这一方法的成功为未来的编码AI发展提供了新的方向。
结尾
综上所述,SelfCodeAlign通过自对齐方法有效提升了代码模型的指令调优水平,展示了LLM在智能编码助理领域的巨大潜力。随着这一技术的不断发展,未来的编码任务将更加高效和智能化。
联系作者
文章来源:新智元
作者微信:
作者简介:智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人革命对人类社会与文明进化的影响,领航中国新智能时代。