标签:问题

英伟达最新技术分享:手把手教你用Llama 3.1合成数据改进模型!附代码

新智元报道编辑:乔杨 好困 【新智元导读】适逢Llama 3.1模型刚刚发布,英伟达就发表了一篇技术博客,手把手教你如何好好利用这个强大的开源模型,为领域模型...
阅读原文

标签贴错,AMD召回所有新一代CPU

机器之心报道 编辑:泽南、佳琪因为有 typo,召回所有已铺货芯片。上个月,AMD 首席执行官苏姿丰博士在 ComputeX 开幕主题演讲上揭开了 Zen 5 架构的神秘面纱...
阅读原文

OpenAI惨遭打脸!SearchGPT官方演示大翻车,源代码竟暴露搜索机制

新智元报道编辑:桃子 乔杨 【新智元导读】OpenAI再次上演了谷歌Bard出糗的一幕,SearchGPT官方震撼演示却被外媒曝出低级错误。另有神通广大的开发者甚至扒出...
阅读原文

陶哲轩点评谷歌AlphaProof:AI在数学竞赛中展现「超凡智慧」

机器之心报道 编辑:大盘鸡人工智能在数学推理中不断前进。在奥数问题面前,AI 的「智商」往往不太够用。不过,这已经是过去式了。谷歌 DeepMind 用 AI 做出...
阅读原文

损坏不可逆?英特尔13/14代酷睿桌面CPU崩溃后续,不会召回

机器之心报道 编辑:杜伟真就要「AMD Yes」了。 最近一段时间,部分使用英特尔第 13/14 代酷睿台式机处理器的游戏玩家遇到了一些麻烦。他们反馈称,这些处理...
阅读原文

为什么AI数不清Strawberry里有几个 r?Karpathy:我用表情包给你解释一下

机器之心报道 机器之心编辑部让模型知道自己擅长什么、不擅长什么是一个很重要的问题。还记得这些天大模型被揪出来的低级错误吗? 不知道 9.11 和 9.9 哪个大...
阅读原文

谷歌再被OpenAI截胡?训练数学AI拿下IMO银牌,不及SearchGPT放了空响…

夕小瑶科技说 原创作者 | 海野昨夜谷歌振臂高呼:我们新的数学AI,能在IMO数学竞赛达到银牌水平! 但就在谷歌发文的几个小时后,OpenAI就偷了谷歌的家: 发布...
阅读原文

谷歌AI一分之差痛失IMO金牌!19秒做一题碾压人类选手,几何AI超进化震撼评委

新智元报道编辑:编辑部 【新智元导读】就在刚刚,谷歌DeepMind最新的数学模型捧得了IMO奥数银牌!它不仅以满分成绩做出了6道题中的4道,距离金牌只有1分之差...
阅读原文

138 亿美元的 Scale AI:解决正确的问题,做「技术含量最低」的生意

Scale AI 的创始人 8 年前意识到,所有干 AI 的都认为数据至关重要,但没多少人把数据当成主业。 他从 MIT 辍学,创业做数据标注。 2016 年,Alex Wang 成立 ...
阅读原文

大模型智障检测+1:Strawberry有几个r纷纷数不清,最新最强Llama3.1也傻了

梦晨 一水 发自 凹非寺量子位 | 公众号 QbitAI继分不清9.11和9.9哪个大以后,大模型又“集体失智”了! 数不对单词“Strawberry”中有几个“r”,再次引起一片讨论...
阅读原文

ChatGPT在编码方面到底有多好?

GETTY IMAGES 来源:IEEE电气电子工程师学会 供稿:杨泓奕 This article is part of our exclusiveIEEE Journal Watch seriesin partnership with IEEE Xplor...
阅读原文

从裸机到700亿参数大模型,这里有份教程,还有现成可用的脚本

选自imbue.com 作者:Imbue 团队 机器之心编译 编辑:panda我们知道 LLM 是在大规模计算机集群上使用海量数据训练得到的,机器之心曾介绍过不少用于辅助和改...
阅读原文

Llama 3.1上线就被攻破:大骂小扎,危险配方张口就来!指令遵循能力强了更容易越狱

梦晨 发自 凹非寺量子位 | 公众号 QbitAI最强大模型Llama 3.1,上线就被攻破了。 对着自己的老板扎克伯格破口大骂,甚至知道如何绕过屏蔽词。 设计危险病毒、...
阅读原文

港大马毅:大模型长期没有理论就像盲人摸象;大佬齐聚激辩AI下一步|2024国际基础科学大会

西风 发自 凹非寺量子位 | 公众号 QbitAI“我想问在座一个问题,无论是求真书院还是丘成桐少年班的同学,如果这个问题都不知道,那你就不应该在这个班!” 2024...
阅读原文

Meta 发布其最强大的 AI 模型 Llama 3.1,具有 4050亿参数

点击上方蓝字关注我们“Meta 发布了史上最大的开源 AI 模型 Llama 3.1 405B,拥有 4050 亿参数,支持多语言文本处理,推动生成性 AI 发展。Meta 刚刚发布了史...
阅读原文
191011121335