标签:时间

还得是开源!潞晨Open-Sora技术路线公开,一键生成16秒720p视频,质量更高训练成本更低

允中 发自 凹非寺量子位 | 公众号 QbitAI16秒720p高清视频,现在人人可免费一键生成! 无论是精致的人物肖像: 还是炫酷的科幻大片: △画质已压缩亦或是生动...
阅读原文

CVPR 2024 Highlight | 北航等发布「时间特征维护」:无需训练,极致压缩加速Diffusion

新智元报道编辑:LRST 好困 【新智元导读】拯救4bit扩散模型精度,仅需时间特征维护——以超低精度量化技术重塑图像内容生成!近日,北航、莫纳什、UT Austin联...
阅读原文

全面超越Transformer!清华蚂蚁推出纯MLP架构,长短程时序预测大幅提升

蔚明 投稿自 凹非寺量子位 | 公众号 QbitAITransformer很强,Transformer很好,但Transformer在处理时序数据时存在一定的局限性。 如计算复杂度高、对长序列...
阅读原文

谷歌开源TimesFM:1000亿个时间点训练,入选ICML 2024

新智元报道编辑:乔杨 【新智元导读】在大语言模型突飞猛进的同时,谷歌的研究团队在时序预测方面也取得了突破性的成果——今年2月发表的模型TimesFM,而且放出...
阅读原文

首个智慧城市大模型UrbanGPT,全面开源开放|港大&百度

UrbanGPT团队 投稿量子位 | 公众号 QbitAI时空预测技术,迎来ChatGPT时刻。 时空预测致力于捕捉城市生活的动态变化,并预测其未来走向,它不仅关注交通和人流...
阅读原文

让AI写高考作文:GPT-4、Kimi、通义千问“创意写作”能力横向测评!

‍直播预告 | 5月28日10点,「智猩猩AI新青年讲座」第236讲正式开讲,密歇根大学安娜堡分校在读博士生张挥杰将直播讲解《利用多级框架和多解码器架构提高扩散...
阅读原文

图灵奖得主Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存

来源:机器之心 机器之心编辑部既能像 Transformer 一样并行训练,推理时内存需求又不随 token 数线性递增,长上下文又有新思路了?序列建模的进展具有极大的...
阅读原文

Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存

机器之心报道 机器之心编辑部既能像 Transformer 一样并行训练,推理时内存需求又不随 token 数线性递增,长上下文又有新思路了?序列建模的进展具有极大的影...
阅读原文

OpenAI安全系统负责人:从头构建视频生成扩散模型

作者 |Lilian Weng OneFlow编译 翻译|杨婷、宛子琳、张雪聃 题图由SiliconFlow MaaS平台生成 过去几年,扩散模型(Diffusion models)在图像合成领域取得了...
阅读原文

NeurIPS ’24 截稿不足 2 天!hyper.ai 汇总 58 个顶会,提供精确到秒的 DDL 倒计时,持续更新中

NeurIPS 作为人工智能和机器学习领域的顶级会议,备受全球学者的关注。NeurIPS,全称为 Neural Information Processing Systems Conference,是神经信息处理...
阅读原文

Sora之后,OpenAI Lilian Weng亲自撰文教你从头设计视频生成扩散模型

选自Lil’Log 作者:Lilian Weng 机器之心编译 编辑:Panda过去几年来,扩散模型强大的图像合成能力已经得到充分证明。研究社区现在正在攻克一个更困难的任务...
阅读原文

无向图最小割问题取得新突破,谷歌研究获SODA 2024最佳论文奖

机器之心报道 机器之心编辑部谷歌博客放出新研究,求解无向图的最小割问题。1996 年, 美国计算机科学家 David R Karger 连同其他研究者在论文《 A new appro...
阅读原文

“AI版iPhone”口碑翻车!被嘲美丽废物,售价超5000元,又贵又难用

下一个颠覆性消费电子产品Ai Pin,被10多家外媒总计列出12项“差评”。 作者|程茜 编辑|心缘 凭借“杀死智能手机”爆红的AI新硬件Ai Pin,在首发后大面积翻车,批...
阅读原文

最火 AI 硬件 AI Pin 评测解禁!它真的有用吗?

AI Pin 可以说是这一波大模型 AI 硬件里最引人关注的一个了。 Sam Altman 和微软投资、前苹果设计师和软件工程总监创办,创始人都曾经是 iPhone、iPad 产品的...
阅读原文

Llama架构比不上GPT2?神奇token提升10倍记忆?

机器之心专栏 机器之心编辑部一个 7B 规模的语言模型 LLM 能存储多少人类知识?如何量化这一数值?训练时间、模型架构的不同将如何影响这一数值?浮点数压缩 ...
阅读原文
1234568