标签:步骤

史上首个实时AI视频生成技术:DiT通用,速度提升10.6倍

机器之心报道 机器之心编辑部DiT 都能用,生成视频无质量损失,也不需要训练。实时 AI 视频生成来了! 本周三,新加坡国立大学尤洋团队提出了业内第一种可以...
阅读原文

AI Agent 落地现状:成功率太低,即使用 GPT-4 也不到 15%

文章转载自「机器之心」,Founder Park 略有增删。 随着大语言模型的不断进化与自我革新,性能、准确度、稳定性都有了大幅的提升,这已经被各个基准问题集验...
阅读原文

Transformer本可以深谋远虑,但就是不做

机器之心报道 机器之心编辑部语言模型是否会规划未来 token?这篇论文给你答案。 「别让 Yann LeCun 看见了。」Yann LeCun 表示太迟了,他已经看到了。今天要...
阅读原文

清华叉院教授扔出量子密码学重磅炸弹!论文引业界轰动,但算法被发现bug

新智元报道编辑:好困 Aeneas 【新智元导读】前段时间,由清华叉院助理教授陈一镭提出的全新「破解格密码的量子算法」,一经发表便引发了业内轰动。然而就在...
阅读原文

若通过验证可颠覆美国后量子密码设计,清华陈一镭预印论文破解格密码

机器之心报道 机器之心编辑部30 年来最重要的量子算法突破?在计算机领域,解决格上的近似最短向量问题(Approximate Shortest Vector Problems in Lattices...
阅读原文

Scaling Laws又失灵了?谷歌新研究:扩散模型不是越大越好

大数据文摘授权转载自夕小瑶科技说作者:Zicy 近年来,模型规模呈现出愈来愈大的趋势,越来越多的人相信“力大砖飞”。 OpenAI 虽然没有公布Sora的训练细节,但...
阅读原文

Scaling Laws 又失灵了?谷歌新研究:扩散模型不是越大越好

夕小瑶科技说 原创作者 | Zicy近年来,模型规模呈现出愈来愈大的趋势,越来越多的人相信“力大砖飞”。 OpenAI 虽然没有公布Sora的训练细节,但在Sora的技术报...
阅读原文

颜水成/程明明新作!Sora核心组件DiT训练提速10倍,Masked Diffusion Transformer V2开源

新智元报道编辑:LRS 好困 【新智元导读】Masked Diffusion Transformer V2在ImageNet benchmark 上实现了1.58的FID score的新SoTA,并通过mask modeling表征...
阅读原文

香港大学发布思维扩散DoT,让思维在时间上扩散,提效保质!

夕小瑶科技说 原创编辑 | Tscom 引言:探索结合扩散模型与思维链来提升大模型推理能力在人工智能领域,大语言模型(LLMs)已经引起了广泛的关注,它们在自然...
阅读原文

加速知识检索:伯克利&DeepMind联合研究,RaLMSpec让语言模型服务飞速提升2-7倍!

夕小瑶科技说 原创作者 | 智商掉了一地、卖萌酱近年来,随着大型语言模型(LLM)的出现,在多样化的 NLP 任务上取得了令人瞩目的成果。然而,知识密集型任务...
阅读原文

今日arXiv最热NLP大模型论文:伯克利&DeepMind联合研究,RaLMSpec让检索增强LLM速度提升2-7倍!

夕小瑶科技说 原创编辑 | Tscom引言:知识密集型NLP任务中的挑战与RaLM的潜力在知识密集型自然语言处理(NLP)任务中,传统的大语言模型面临着将海量知识编码...
阅读原文

「think step by step」还不够,让模型「think more steps」更有用

机器之心报道 机器之心编辑部本文对思维链的推理步长进行了控制变量实验,发现推理步长和答案的准确性是线性相关的,这种影响机制甚至超越了问题本身所产生的...
阅读原文

奋战一年,LangChain首个稳定版本终于发布,LangGraph把智能体构建为图

机器之心报道 编辑:张倩著名的大模型智能体工具,现在有大版本更新了。 不知不觉,LangChain 已经问世一年了。作为一个开源框架,LangChain 提供了构建基于...
阅读原文

8x7B MoE与Flash Attention 2结合,不到10行代码实现快速推理

机器之心报道 编辑:陈萍感兴趣的小伙伴,可以跟着操作过程试一试。前段时间,Mistral AI 公布的 Mixtral 8x7B 模型爆火整个开源社区,其架构与 GPT-4 非常相...
阅读原文

OpenAI 官方 Prompt 工程指南:写好 Prompt 的六个策略

其实一直有很多人问我,Prompt 要怎么写效果才好,有没有模板。 我每次都会说,能清晰的表达你的想法,才是最重要的,各种技巧都是其次。但是,我还是希望发...
阅读原文
123