标签:示例

Meta祭出三篇最详尽Llama微调指南!千字长文,0基础小白必备

新智元报道编辑:桃子 【新智元导读】微调的所有门道,都在这里了。开源,就要开的彻彻底底。 这不,Meta一连放出三篇技术文章,从大模型适配方法出发,介绍...
阅读原文

总说具身智能的数据太贵,鹏城实验室开源百万规模标准化数据集

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术...
阅读原文

DeepMind科学家:LLM没有过度炒作!亲身分享50个AI用例让工作效率飞升50%

新智元报道编辑:庸庸 乔杨 【新智元导读】现存的LLM是否真的有用?在工作中真实使用LLM的场景都有哪些?谷歌DeepMind科学家详细分享了他是如何「玩转」AI,...
阅读原文

CMU&清华新作:让LLM自己合成数据来学习,特定任务性能同样大幅提升

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术...
阅读原文

Runway深夜炸场,Gen-3 Alpha图生视频上线,11秒让你脑洞乱飞

机器之心报道 编辑:杜伟网友不吝赞叹:AI 视觉生成又迈出了一大步。今天凌晨,Runway Gen 3 Alpha 模型的图生视频功能正式上线! 用户可以使用任何图片作为...
阅读原文

视频上下文学习!大模型学会“照猫画虎”生成,结合模拟器还能精准控制真实环境交互,来自MSRA

Vid-ICL团队 投稿量子位 | 公众号 QbitAI视频生成也能参考“上下文”?! MSRA提出视频上下文学习(Video In-Context Learning, Vid-ICL),让大模型学会“照猫...
阅读原文

GPT-4o攻破ARC-AGI无法被挑战的神话!71%准确率成新SOTA

新智元报道编辑:庸庸乔杨 【新智元导读】号称不可能轻易被击败的AGI基准ARC-AGI被GPT-4o撼动,GPT-4o以在公共测试集50%、在训练集71%的准确率成为了新的SOTA...
阅读原文

吴恩达团队新作:多模态多样本上下文学习,无需微调快速适应新任务

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术...
阅读原文

OpenAI把GPT-4原始版给了他们:研究不微调只靠提示词能走多远

梦晨 发自 凹非寺量子位 | 公众号 QbitAI除了OpenAI自己,居然还有别人能用上GPT-4-Base版?? 也就是未经微调的预训练版,还不会对话聊天,只会补全句子的模...
阅读原文

微软发布!提示工程进化为位置工程,有效提升RAG与上下文学习

夕小瑶科技说 原创作者 | 谢年年 别再光顾着优化提示工程啦!微软最近推出位置工程研究思路,只需调整token的索引位置,而不修改文本本身,就能显著提高任务...
阅读原文

超越 GPT-4V 和 Gemini Pro!HyperGAI 发布最新多模态大模型 HPT,已开源

夕小瑶科技说 原创作者 | 任同学随着AI从有限数据迈向真实世界,极速增长的数据规模不仅赋予了模型令人惊喜的能力,也给多模态模型提供了更多的可能性。OpenA...
阅读原文

大模型提示学习样本量有玄机,自适应调节方法好

夕小瑶科技说 原创作者 | 芒果 引言:探索文本分类中的个性化示例数量在自然语言处理(NLP)领域,预测模型已经从零开始训练演变为使用标记数据对预训练模型...
阅读原文

今日arXiv最热NLP大模型论文:大模型提示学习样本量有玄机,自适应调节方法好

夕小瑶科技说 原创作者 | 芒果 引言:探索文本分类中的个性化示例数量在自然语言处理(NLP)领域,预测模型已经从零开始训练演变为使用标记数据对预训练模型...
阅读原文

小模型增强可超GPT-4?北航 && 人大 | 提出大模型ICL增强范式,模型越小收益越高!

引言:上下文学习(In-context Learning,ICL)技术是提高模型在自然语言处理任务上表现的高效提示技术,因而众多研究在这个方向上提出各种方法,但大多数都...
阅读原文

Midjourney文本渲染新升级,与DALL·E 3大比拼,看看谁更强

机器之心报道 编辑:大盘鸡文字渲染哪家强,今天你来做裁判。如果文生图中也有「敬业」代表,那 Midjourney 绝对能够提名。从发布开始,每次更新都给我们不一...
阅读原文
12