标签:范式

AI赚钱副业~AI生成影视解说,半个月涨粉变现3.5W+!

这两年大家都在感叹生活不易,然而我想说的是,机会还是有的,但问题不在于有没有,而在于你是否能够认准机会,然后抓住它。 接触过很多咨询项目的人,发现...

文本图格式大一统!首个大规模文本边基准TEG-DB发布 | NeurIPS 2024

新智元报道编辑:LRST 【新智元导读】最近,来自上海大学、山东大学和埃默里大学等机构的研究人员首次提出了文本边图的数据集与基准,包括9个覆盖4个领域的大...
阅读原文

文本图格式大一统!首个大规模文本边基准TEG-DB发布 | NeurIPS 2024

新智元报道编辑:LRST 【新智元导读】最近,来自上海大学、山东大学和埃默里大学等机构的研究人员首次提出了文本边图的数据集与基准,包括9个覆盖4个领域的大...
阅读原文

大模型训练成本降一半!厦大和vivo联合推出预训练新策略,给LLM降本增效

夕小瑶科技说 原创作者 | 王志豪鱼与熊掌可以兼得,厦门大学和vivo AI lab联合提出预训练学习率调整新策略,降低训练42%成本的同时,还能保持大模型效果,该...
阅读原文

我们能够让开源小模型变得比人类更聪明吗

作者丨 Harish SG 译者丨明知山 策划丨褚杏娟 我是 Harish SG,一名在德克萨斯大学达拉斯分校攻读网络安全硕士学位的安全研究员,目前在思科担任 AI 安全工...
阅读原文

为什么Karpathy说NotebookLM中蕴藏着类似 ChatGPT 的机会?

昨晚Andrej Karpathy介绍了一下谷歌的 NotebookLM,之后还说这个产品所代表的交互形式可能触及 LLM 产品的全新领域,是一个类似 ChatGPT 的新范式。 大家也都...
阅读原文

12位院士齐聚CCF HPC China,热议科研新范式:超智融合/算网融合/科学智能计算……

作者:李宝珠 9 月 24 日,第 20 届 CCF 全国高性能计算学术年会正式开幕,12 位院士与超 400 位顶尖学者围绕 HPC 的发展现状与趋势,聚焦丰富的应用场景,进...
阅读原文

o1研发团队首次集体访谈:教AI数r用了一年半

克雷西 明敏 发自 凹非寺量子位 | 公众号 QbitAI笑死,原来o1也像人类一样喜欢赶ddl。 这是在o1团队的“大型见面会”上,OpenAI创始成员Wojciech Zaremba揭开的...
阅读原文

o1金牌团队揭秘AI超越人类惊人时刻!22分完整版视频全公开

新智元报道编辑:桃子 乔杨 【新智元导读】o1诞生,对于OpenAI团队来说,是最具革命性的时刻。在22分钟完整版采访视频中,他们分享了自己对新模型的思考,以...
阅读原文

o1发布后,信息量最大的圆桌对话:杨植麟、姜大昕、朱军探讨大模型技术路径

在 2024 云栖大会上,阶跃星辰创始人姜大昕、月之暗面Kimi创始人杨植麟、生数科技首席科学家朱军与极客公园创始人张鹏一起,探讨了各自眼中 AI 技术发展的现...
阅读原文

o1 改变了 Scaling 范式?Self-Play 还值得 All In 吗?

机器之心PRO · 会员通讯 Week 37---- 本周为您解读 ③个值得细品的AI & Robotics业内要事 ---- 1. o1 改变了 Scaling 范式?Self-Play 还值得 All In 吗?...
阅读原文

200美元/月的ChatGPT Pro版上线?OpenAI草莓模型曝两周内发布,但模型表现要打个问号?

夕小瑶科技说 原创作者 | 海野现在看到“草莓”两个字,我已经条件反射了,已经不再是之前单纯的香香甜甜的草莓了。 一早醒来,又发生了两件“大事”: 一个是Ope...
阅读原文

CVPR'24 Navsim挑战赛冠军方案!NVIDIA Hydra-MDP:端到端自动驾驶规划新范式 | 公开课预告

端到端自动驾驶目前逐渐被认为是实现完全自动驾驶的最优解,受到了学术界和产业界的广泛关注。然而,最近的研究表明,近年来涌现的不少端到端自动驾驶模型,...
阅读原文

LLM的范式转移:RL带来新的 Scaling Law

9月6-7日,智猩猩发起主办的2024全球AI芯片峰会将在北京辽宁大厦盛大举行。峰会设有开幕式、数据中心AI芯片专场、AI芯片架构创新专场、边缘/端侧AI芯片专场、...
阅读原文

突破复杂运动控制:自适应脑机接口实时神经反馈优化

脑机接口(BCI)技术在医疗和辅助设备领域展现出巨大潜力,但其在日常生活中的应用仍然面临多重挑战。这些挑战主要集中在BCI解码器的训练上,传统的解码器训...
阅读原文

CPU反超NPU,llama.cpp生成速度翻5倍!LLM端侧部署新范式T-MAC开源

新智元报道编辑:LRST 好困 【新智元导读】T-MAC是一种创新的基于查找表(LUT)的方法,专为在CPU上高效执行低比特大型语言模型(LLMs)推理而设计,无需权重...
阅读原文
1235