标签:人类

秘密打造「AI陶哲轩」 震惊数学圈!谷歌IMO梦之队首曝光,菲尔兹奖得主深度点评

新智元报道编辑:编辑部 【新智元导读】19秒破解几何难题,谷歌AI夺得IMO银牌在业界掀起了巨震。就连菲尔兹奖得主陶哲轩,前IMO美国队负责人罗博深都对此大加...
阅读原文

晾衣难题难倒GPT-4,人类狂教知识图破解!华盛顿大学教授:LLM会有具备常识的一天吗

新智元报道编辑:Aeneas 【新智元导读】在QuantaMagazine的这篇播客中,主持人采访了华盛顿大学计算机教授Yejin Choi。两人谈到十分有趣的话题,比如AI是否必...
阅读原文

牛津剑桥「投毒」AI失败9次登Nature封面,引爆学术圈激辩!AI训AI能否打破崩溃魔咒?

新智元报道编辑:Aeneas 好困 【新智元导读】牛津剑桥的9次投毒导致模型崩溃的论文,已经遭到了诸多吐槽:这也能上Nature?学术圈则对此进行了进一步讨论,大...
阅读原文

AI 在餐饮界也卷出了「萝卜快跑」,打饭比食堂阿姨手稳,炒菜接近大厨

预制到现炒 都要标准化背景设定在 2035 年的《我,机器人》里,NS-5 机器人手起刀落,切菜速度像开了两倍速,快过练习时长 30 年的老师傅。 虽然威尔·史密斯...
阅读原文

138 亿美元的 Scale AI:解决正确的问题,做「技术含量最低」的生意

Scale AI 的创始人 8 年前意识到,所有干 AI 的都认为数据至关重要,但没多少人把数据当成主业。 他从 MIT 辍学,创业做数据标注。 2016 年,Alex Wang 成立 ...
阅读原文

OpenAI五级AGI战略遭吐槽,命名不清、逻辑混乱,本质只是空洞营销?

新智元报道编辑:耳朵 乔杨 【新智元导读】OpenAI的最新AGI布局——5级路线图再被吐槽是营销手段,不仅对「超级智能」命名和定义存在模糊之处,5个级别的层次结...
阅读原文

RLHF不够用了,OpenAI设计出了新的奖励机制

机器之心报道 机器之心编辑部OpenAI 的新奖励机制,让大模型更听话了。自大模型兴起以来,使用强化学习从人类反馈(RLHF)中微调语言模型一直是确保 AI 准确...
阅读原文

字节大模型同传智能体,一出手就是媲美人类的同声传译水平

机器之心发布 机器之心编辑部无论是语速超快、发音复杂的绕口令,还是精妙绝伦的文言文,又或是充满即兴和灵感的随意聊天,模型都能流畅自然地给出准确而地道...
阅读原文

微软CTO韦青:担心现在流行的职业即将消失时,先问一下人类到底想干啥

作者:韦青 微软 ( 中国 ) 首席技术官、工程师 教育是人类社会的一个重要话题,虽然对于教育的目的有不同的解读,但教育终归与人类的幸福生活和智慧增长相关...
阅读原文

Google DeepMind 最新研究:搞定这三个任务?人类不行,AI 也不行

撰文 | 赵雅琦前言人工智能(AI)并非完美的推理者,即使是当前大热的语言模型(LMs),也同样会表现出与人类类似的错误倾向,尤其是出现显著的“内容效应”(C...
阅读原文

对话南洋理工大学安波教授:如何让大语言模型适应动态环境?

大数据文摘受权转载自AI科技评论 作者丨陈鹭伊 编辑丨岑峰 对人类越是简单的问题,大语言模型反而越难以做好? 尽管现在的大模型已经有能力冲击数学竞赛级别...
阅读原文

被 AlphaGo 击败的李世石,用 8 年重建崩塌的世界

和 AI 共存共创 的围棋世界输给 AI,有种感觉是,我整个世界都塌了。 李世石在最近接受《纽约时报》采访时说道。 2016 年,这位曾 14 次获世界冠军的韩国棋士...
阅读原文

对话南洋理工大学安波教授:如何让大语言模型适应动态环境?丨IJAIRR

智能体实现AGI的自我超越,从与环境交互做起。作者丨陈鹭伊 编辑丨岑峰 对人类越是简单的问题,大语言模型反而越难以做好? 尽管现在的大模型已经有能力冲击...
阅读原文

AI可像人类一样感知决策,快速权衡各种选择,有望助力医疗诊断、自动驾驶等领域

大数据文摘授权转载自学术头条 撰文:田小婷 想象一下,在紧张刺激的赛车游戏中,人类需要迅速而精准地判断何时踩下油门、何时巧妙地转弯。在根据路况不断改...
阅读原文

OpenAI超级对齐团队再发「绝唱」!首提「证明者-验证者」博弈,训练GPT说人话

新智元报道编辑:乔杨 好困 【新智元导读】当我们不停在CoT等领域大下苦功、试图提升LLM推理准确性的同时,OpenAI的对齐团队从另一个角度发现了华点——除了准...
阅读原文
191011121339