CMU+清华开源Prompt2Model框架,性能超越GPT-3.5,仅需1/700的参数量

CMU+清华开源Prompt2Model框架,性能超越GPT-3.5,仅需1/700的参数量

AIGC动态欢迎阅读

原标题:CMU+清华开源Prompt2Model框架,性能超越GPT-3.5,仅需1/700的参数量

关键字:模型,数据,任务,研究人员,用户

文章来源:夕小瑶科技说

内容字数:7364字

内容摘要:夕小瑶科技说 分享来源 | 新智元基于大型语言模型(LLM),开发者或用户可以通过描述任务,并给出几个样例来构造自然语言提示,很轻松地就能实现指定的功能。不过从某种程度上来说,相比传统的、面向任务开发的NLP系统,大型语言模型在计算资源需求等方面是一种极大的退步。最近,卡内基梅隆大学和清华大学的研究人员提出了一种通用的模型构造方法Prompt2Model,开发者只需要构造自然语言提示,就可以训练出…

原文链接:点此阅读原文:CMU+清华开源Prompt2Model框架,性能超越GPT-3.5,仅需1/700的参数量

联系作者

文章来源:夕小瑶科技说

作者微信:xixiaoyaoQAQ

作者简介:更快的AI前沿,更深的行业洞见。聚集25万AI应用开发者、算法工程师和研究人员。一线作者均来自清北、国外顶级AI实验室和互联网大厂,兼备媒体sense与技术深度。

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...