标签:示例

大模型提示学习样本量有玄机,自适应调节方法好

夕小瑶科技说 原创作者 | 芒果 引言:探索文本分类中的个性化示例数量在自然语言处理(NLP)领域,预测模型已经从零开始训练演变为使用标记数据对预训练模型...
阅读原文

今日arXiv最热NLP大模型论文:大模型提示学习样本量有玄机,自适应调节方法好

夕小瑶科技说 原创作者 | 芒果 引言:探索文本分类中的个性化示例数量在自然语言处理(NLP)领域,预测模型已经从零开始训练演变为使用标记数据对预训练模型...
阅读原文

小模型增强可超GPT-4?北航 && 人大 | 提出大模型ICL增强范式,模型越小收益越高!

引言:上下文学习(In-context Learning,ICL)技术是提高模型在自然语言处理任务上表现的高效提示技术,因而众多研究在这个方向上提出各种方法,但大多数都...
阅读原文

Midjourney文本渲染新升级,与DALL·E 3大比拼,看看谁更强

机器之心报道 编辑:大盘鸡文字渲染哪家强,今天你来做裁判。如果文生图中也有「敬业」代表,那 Midjourney 绝对能够提名。从发布开始,每次更新都给我们不一...
阅读原文

这是 GPT-4 变笨的新解释

文章来源:机器之心 编辑:蛋酱 自发布以来,曾被认为是世界上最强大的 GPT-4 也经历了多场「信任危机」。 如果说今年早些时候那次「间歇式降智」与 OpenAI ...
阅读原文

GPT-4变笨!回答新问题性能太差,想保持水准只能不断训练新模型

新智元报道编辑:润 【新智元导读】最近由UCSC的研究人员发表论文,证明大模型的零样本或者少样本能力,几乎都是来源于对于训练数据的记忆。昨天,一篇系统性...
阅读原文

这是GPT-4变笨的新解释

机器之心报道 编辑:蛋酱变笨的本质是知识没进脑子。 自发布以来,曾被认为是世界上最强大的 GPT-4 也经历了多场「信任危机」。 如果说今年早些时候那次「间...
阅读原文

ChatGPT变笨新解释:世界被AI改变,与训练时不同了

梦晨 发自 凹非寺量子位 | 公众号 QbitAI对于ChatGPT变笨原因,学术界又有了一种新解释。 加州大学圣克鲁兹分校一项研究指出: 在训练数据截止之前的任务上,...
阅读原文

Plotly,一个超强的Python可视化库!

大数据文摘受权转载自法纳斯特 数据可视化是数据分析和探索的一个重要方面,它有助于深入了解数据集中的潜在模式、趋势和关系。 Plotly则是一个功能强大且多...
阅读原文

拳打Pika脚踢Gen-2!斯坦福李飞飞联合谷歌,AI文生视频大模型炸圈

文生视频工具扎堆爆发,视频的GPT时刻来了?作者|李水青编辑|漠影AI文生视频赛道正呈现出爆发之势!继本月AI文生视频工具Pika 1.0爆火出圈、Gen-2效果大升级...
阅读原文

苹果为自家芯片打造开源框架MLX,实现Llama 7B并在M2 Ultra上运行

机器之心报道编辑:杜伟、小舟苹果的这个新框架 MLX 不仅拥有 PyTorch 风格的 API,还为开发者提供了很多经典示例(比如 Llama、LoRa、Stable Diffusion 和 W...
阅读原文

大模型免微调解锁对话能力,RLHF没必要了!一作上交大校友:节省大量成本和时间

梦晨 发自 凹非寺量子位 | 公众号 QbitAI要搞大模型AI助手,像ChatGPT一样对齐微调已经是行业标准做法,通常分为SFT+RLHF两步走。来自艾伦研究所的新研究却发...
阅读原文

微软仅凭「提示工程」让GPT-4成医学专家!超过一众高度微调模型,专业测试准确率首次超90%

西风 发自 凹非寺量子位 | 公众号 QbitAI微软最新研究再次证明了提示工程的威力——无需额外微调,无需专家策划,仅凭提示,GPT-4就能化身“专家”。使用他们提出...
阅读原文

任意文本、视觉、音频混合生成,多模态有了强大的基础引擎CoDi-2

机器之心报道编辑:杜伟、大盘鸡研究者表示,CoDi-2 标志着在开发全面的多模态基础模型领域取得了重大突破。今年 5 月,北卡罗来纳大学教堂山分校、微软提出...
阅读原文

开源语言大模型演进史:向LLaMA 2看齐

本文是开源 LLM 发展史系列文章的第三部分。此前,第一部分《》回顾了创建开源 LLM 的最初尝试。第二部分《》研究了目前可用的最受欢迎的开源基础模型(即已...
阅读原文
123