标签:任务

「Meta版ChatGPT」背后的技术:想让基础LLM更好地处理长上下文,只需持续预训练

机器之心报道编辑:Panda W在处理长上下文方面,LLaMA 一直力有不足,而通过持续预训练和其它一些方法改进,Meta 的这项研究成功让 LLM 具备了有效理解上下文...
阅读原文

强化学习与视觉语言模型之间的碰撞,UC伯克利提出语言奖励调节LAMP框架

大数据文摘授权转载自将门创投作者:seven_在强化学习(RL)领域,一个重要的研究方向是如何巧妙的设计模型的奖励机制,传统的方式是设计手工奖励函数,并根...
阅读原文

谷歌让大模型更具“心智”,GPT-4任务准确率大增

克雷西 发自 凹非寺量子位 | 公众号 QbitAI谷歌联合多所高校的一项最新研究,让大模型开始拥有了人类的“心智”。在新的提示策略下,大模型不仅能推测出人类所...
阅读原文

用暂停token重新训练大模型,AI学会三思而后行

梦晨 发自 凹非寺量子位 | 公众号 QbitAI让ChatGPT给出答案之前多想想步骤,就能提高准确率。那么能不能省去提示词,直接把这种能力内化在大模型里呢?CMU与...
阅读原文

开源标杆!最强中英双语大模型来了,340亿参数,超越 Llama2-70B等所有开源模型

金磊 发自 凹非寺量子位 | 公众号 QbitAI开源界最强的中英双语大模型,悟道·天鹰 34B,来了!有多强?一言蔽之:中英综合能力、逻辑推理能力等,全面超越 Lla...
阅读原文

做情绪识别,有必要用LLM吗?

大数据文摘受权转载自李rumor情绪识别在各种对话场景中具有广泛的应用价值。例如,在社交媒体中,可以通过对评论进行情感分析来了解用户的情绪态度;在人工客...
阅读原文

轻量级持续学习: 0.6%额外参数把旧模型重编程到新任务

机器之心专栏机器之心编辑部持续学习的目的是模仿人类在连续任务中持续积累知识的能力,其主要挑战是在持续学习新任务后如何保持对以前所学任务的表现,即避...
阅读原文

Effective Prompt: 编写高质量Prompt的14个有效方法

夕小瑶科技说 分享来源 | 知乎@Maple小七、刘聪NLP今天给大家带来一篇《Effective Prompt: 编写高质量Prompt的14个有效方法》,来自知乎@Maple小七。提示工程...
阅读原文

国产大模型开源一哥再登场,最强双语LLM「全家桶」级开源!340亿参数超越Llama2-70B

新智元报道编辑:编辑部【新智元导读】就在刚刚,340亿参数的国产大模型悟道·天鹰Aquila2强势冲上榜首,成为最强开源中英双语大模型。更YYDS的是,这次智源不...
阅读原文

GPT-4就是AGI!谷歌斯坦福科学家揭秘大模型如何超智能

新智元报道编辑:编辑部【新智元导读】谷歌研究院和斯坦福HAI的两位专家发文称,现在最前沿的AI模型,未来将会被认为是第一代AGI。最前沿的LLM已经用强大的能...
阅读原文

Meta再放「长文本」杀器Llama 2-Long:70B尺寸登顶最强「32k上下文」模型,超越ChatGPT

新智元报道编辑:LRS【新智元导读】Llama 2-Long计算量需求比重新训练降低40%,还不影响短任务性能!虽然大型语言模型在处理日常问答、总结文本等任务上表现...
阅读原文

DeepMind 全新 AI 项目曝光:可控制各类机器人,数据集有望开源

作者|Ben Dickson译者|核子可乐、冬梅DeepMind 的新项目是什么?开发机器人技术的一大挑战,就在于必须投入大量精力来为每台机器人、每项任务和每种环境训...
阅读原文

7.7亿参数,超越5400亿PaLM!UW谷歌提出「分步蒸馏」,只需80%训练数据|ACL 2023

新智元报道编辑:LRS【新智元导读】LLM不实用,小模型蒸馏才是「现实」的大模型应用路线,全面领先微调技术!土豪请无视。。。大型语言模型虽然性能优异,可...
阅读原文

30分钟教会机器人做家务!CMU提出全新结构化世界模型SWIM

大数据文摘授权转载自将门创投作者:seven_教会机器人在现实环境中解决各种复杂任务,一直是机器人控制领域的关键研究课题。近来随着具身智能的快速发展,机...
阅读原文

码农狂喜!微软提出CodePlan,跨168个代码库编码任务,LLM自动化完成

新智元报道编辑:桃子【新智元导读】这一次,微软提出的CodePlan让码农的生产力又提高了!对于大模型来说,擅长的是本地化编码任务。但如果任务跨越了多个相...
阅读原文