标签:论文

KAN 1.0到2.0:构建全新神经网络结构,开创AI+Science大统一新范式

导语今年4月,Max Tegmark 团队发布了一种崭新的深度学习网络结构 Kolmogorov-Arnold Network(简称KAN) 后迅速引起轰动,论文一作刘子鸣在集智俱乐部 AI+Sc...
阅读原文

使神经网络更容易理解,促进科学发现,MIT刘子鸣团队新架构

来源:ScienceAI 编译:白菜叶 「神经网络是目前人工智能领域最强大的工具。」Perimeter Institute for Theoretical Physics 的研究员 Sebastian Wetzel 表示...
阅读原文

首次统计学上证明,LLM生成的idea新颖性优于人类

来源:机器学习研究组订阅 大型语言模型(LLMs)在各个领域都是一个优秀的助手,广大科研人员也对LLM在加速科学发现方面的潜力充满期待,比如已经有研究提出...
阅读原文

关注o1必备GitHub仓库,上线3天狂揽1.5k星!英伟达工程师出品,承诺持续更新

叨乐 发自 凹非寺量子位 | 公众号 QbitAI关注o1必备的GitHub库,它来了! 上线3天狂揽1.5k星,一跃登上GitHub趋势榜! 这个库专注于收集与o1相关的推理技术论...
阅读原文

OpenAI o1要跟,怎么跟?这个GitHub项目把解读、博客、相关论文一网打尽

机器之心报道 编辑:张倩优秀的 GitHub 项目啊!有关 OpenAI ο1 的一切都在这里在 AI 领域,OpenAI 已经成了指路明灯一般的存在。随着 o1 模型的发布,全世界...
阅读原文

昂贵LLM的救星?Nature新研究提出新型忆阻器,比Haswell CPU高效460倍

机器之心报道 编辑:Panda前些天,OpenAI 发布了 ο1 系列模型,它那「超越博士水平的」强大推理性能预示着其必将在人们的生产生活中大有作为。但它的使用成本...
阅读原文

战胜100多位NLP研究人员!杨笛一团队最新百页论文:首次统计学上证明,LLM生成的idea新颖性优于人类

新智元报道编辑:LRS 【新智元导读】斯坦福大学的最新研究通过大规模实验发现,尽管大型语言模型(LLMs)在新颖性上优于人类专家的想法,但在可行性方面略逊...
阅读原文

60%参考文献被撤稿!Nature绷不住了

新智元报道编辑:alan 【新智元导读】AI崛起,真假难辨。研究发表了,参考文献却撤稿了。到底是故意还是不小心?在今年一月份,IEEE发表的会议论文集中,有一...
阅读原文

「AI Scientist」会给科学带来什么?AI for Science 热潮下的争议

来源:ScienceAI 编译:KX 8 月份,Transformer 作者创业公司 Sakana AI 宣布推出AI Scientist,声称「首个用于自动化科学研究和开放式发现的 AI 系统!」 当...
阅读原文

刚刚,CVPR 2025新规来了:审稿进入「半实名制」,不负责任的审稿人将被标记并拒稿

机器之心报道 编辑:娄佳琪「25篇的上限,还是太多了!」作为计算机视觉领域最顶级的学术会议,CVPR 这几年可谓是卷疯了。 据统计,从 2020 年到 2023 年,CV...
阅读原文

超强o1模型智商已超120!1小时写出NASA博士1年代码,最新编程赛超越99.8%选手

新智元报道编辑:桃子 乔杨 【新智元导读】OpenAI博士级别的智能,真的实现了!一位UCI物理学博士实测o1,发现自己用时1年完成的博士论文代码,竟被AI在1个小...
阅读原文

o1基石论文火爆传阅,Ilya仍是关键先生!核心项目清北校友闪光

白小交 西小风 发自 各自家里量子位 | 公众号 QbitAI自从Ilya Sutskever的名字出现在OpenAI o1背后团队名单中,他在o1中发挥了哪些作用,一时间成为不少网友...
阅读原文

KAN干翻MLP,开创神经网络新范式!一个数十年前数学定理,竟被MIT华人学者复活了

新智元报道编辑:桃子 【新智元导读】KAN的诞生,开启了机器学习的新纪元!而这背后,竟是MIT华人科学家最先提出的实践想法。从KAN到KAN 2.0,这个替代MLP全...
阅读原文

60天极限冲刺一篇CVPR2025!

CVPR2025将在2024年11月14日截止论文提交,2025年1月23日通知审稿结果。距离CVPR截稿还剩2个月,有很多同学进度还落后不少,或者刚了解到自己申博、保研需要...
阅读原文

检索总结能力超博士后,首个大模型科研智能体PaperQA2开源了

机器之心报道 编辑:泽南、杜伟这是 AI 智能体在大部分科学研究中超越人类的第一个案例,或许会彻底改变人类与科学文献互动的方式。最近一段时间,有关 AI 科...
阅读原文
1234522