标签:本文

你没有看过的全新版本,Transformer数学原理揭秘

机器之心报道 编辑:赵阳近日,arxiv 上发布了一篇论文,对 Transformer 的数学原理进行全新解读,内容很长,知识很多,十二分建议阅读原文。2017 年,Vaswan...
阅读原文

Ilya牵头,OpenAI发布超级对齐项目:AI对齐AI,GPT-2能监督GPT-4

文章转自公众号「机器之心」。过去一年,以「预测下一个 Token」为本质的大模型已经横扫人类世界的多项任务,展现了人工智能的巨大潜力。在近日的一次访谈中...
阅读原文

GPT-2能监督GPT-4,Ilya带头OpenAI超级对齐首篇论文来了:AI对齐AI取得实证结果

机器之心报道编辑:陈萍、蛋酱人类无法监督超级人工智能,但人工智能可以。过去一年,以「预测下一个 Token」为本质的大模型已经横扫人类世界的多项任务,展...
阅读原文

大道至简?ETH研究团队提出简化版Transformer模型,综合效率明显提升

大数据文摘受权转载自将门创投‍2023年,Transformer已经成为人工智能领域中最受欢迎的基础模型,如今火热的大型语言模型,多模态大模型均由不同类型的Transfo...
阅读原文

不到1000行代码,PyTorch团队让Llama 7B提速10倍

机器之心报道编辑:陈萍PyTorch 团队亲自教你如何加速大模型推理。在过去的一年里,生成式 AI 发展迅猛,在这当中,文本生成一直是一个特别受欢迎的领域,很...
阅读原文

Stable Video Diffusion来了,代码权重已上线

机器之心报道机器之心编辑部Stability AI 的视频生成模型看来效果不错。AI 画图的著名公司 Stability AI,终于入局 AI 生成视频了。本周二,基于 Stable Diff...
阅读原文

PyTorch团队重写「分割一切」模型,比原始实现快8倍

机器之心报道编辑:陈萍我们该如何优化 Meta 的「分割一切」模型,PyTorch 团队撰写的这篇博客由浅入深的帮你解答。从年初到现在,生成式 AI 发展迅猛。但很...
阅读原文

13B模型全方位碾压GPT-4?这背后有什么猫腻

机器之心报道编辑:陈萍你的测试集信息在训练集中泄漏了吗?一个参数量为 13B 的模型竟然打败了顶流 GPT-4?就像下图所展示的,并且为了确保结果的有效性,这...
阅读原文

给大模型评分的基准靠谱吗?Anthropic来了次大评估

选自Anthropic机器之心编译机器之心编辑部在大模型(LLM)盛行的当下,评估 AI 系统成为了重要的一环,在评估过程中都会遇到哪些困难,Anthropic 的一篇文章...
阅读原文

DeepMind:谁说卷积网络不如ViT?

机器之心报道编辑:陈萍、小舟本文通过评估按比例扩大的 NFNets,挑战了 ConvNets 在大规模上表现不如 ViTs 的观点。深度学习的早期成功可归功于卷积神经网络...
阅读原文

复旦大合华为诺亚提出VidRD框架,实现迭代式的高质量视频生成

机器之心专栏机器之心编辑部本文提出了一个名为 “Reuse and Diffuse” 的框架。该框架可以在 LDM 已经生成的少部分视频帧之后,产生更多的视频帧,从而实现迭...
阅读原文

MiniGPT-4升级到MiniGPT-v2了,不用GPT-4照样完成多模态任务

机器之心专栏机器之心编辑部MiniGPT-v2 将大语言模型作为视觉语言多任务学习的统一接口。几个月前,来自 KAUST(沙特阿卜杜拉国王科技大学)的几位研究者提出...
阅读原文

选择GPT-3.5、还是微调Llama 2等开源模型?综合比较后答案有了

机器之心编译选自 ragntune 的博客编辑:rome rome通过对 GPT-3.5 和 Llama 2 在不同任务上的微调对比,我们可以得知在什么情况下选择 GPT-3.5,什么情况下选...
阅读原文

在图像、视频生成上,语言模型首次击败扩散模型,tokenizer是关键

机器之心报道编辑:张倩、陈萍为什么语言模型在视觉生成方面落后于扩散模型?来自谷歌、CMU 的研究表明,tokenizer 是关键。大型语言模型(LLM 或 LM)一开始...
阅读原文

建议收藏!Stable Diffusion 从入门到精通之超全提示词手册

本文系统、专业、详尽地介绍了Stable Diffusion的提示词Prompt的大量专业知识。Prompt,译为提示词,指的是以书面或口头语言形式向计算机系统发出的指令。在 ...
阅读原文
1234