标签:语言

修改LLaMA2-13B一个参数,语言能力全丧失,复旦等发现大模型新秘密

从年初到现在,以 ChatGPT、LLaMA 等为代表的大语言模型(LLM)展现出了类似人类水平的语言能力,这些大模型可以高效的执行复杂任务,而这些任务往往需要抽象...
阅读原文

用语言对齐多模态信息,北大腾讯等提出LanguageBind,刷新多个榜单

机器之心专栏机器之心编辑部北京大学与腾讯等机构的研究者们提出了多模态对齐框架 ——LanguageBind。该框架在视频、音频、文本、深度图和热图像等五种不同模态...
阅读原文

高达2万亿参数,远超GPT-4!亚马逊全新Olympus大模型曝光,即将对外公布

新智元报道编辑:润 alan【新智元导读】作为第一大云计算厂商却似乎在大模型时代默默无闻的亚马逊,终于被爆料了!据称,亚马逊正在训练一个高达2万亿参数的...
阅读原文

把ChatGPT塞进副驾驶!清华、中科院、MIT联合提出Co-Pilot人机交互框架:完美把控乘客意图

新智元报道编辑:LRS【新智元导读】这项工作首次尝试用语言模型作为辅助驾驶,用描述的方式来控制行动轨迹,依然能符合用户的轨迹意图。作为本年度人工智能领...
阅读原文

GPT-4完成正确率仅6%!北大等提出首个「多轮、多模态」PPT任务完成基准PPTC

新智元报道编辑:LRS【新智元导读】为了填补LLM在复杂多模态环境中利用复杂工具完成多轮、多模态指令的评估空白,研究人员引入了PowerPoint任务完成(PPTC)...
阅读原文

宇宙尽头是「计算」!AI大佬Wolfram最新演讲:LLM自主在计算空间探索,奇点降临就是现在

新智元报道编辑:桃子【新智元导读】宇宙的终极解,究竟是什么?如何以计算方式,思考人工智能、宇宙和一切?近日,著名的英国科学家Stephen Wolfram在TED 18...
阅读原文

解读大模型(LLM)的token

当人们谈论大型语言模型的大小时,参数会让我们了解神经网络的结构有多复杂,而token的大小会让我们知道有多少数据用于训练参数。正像陆奇博士所说的那样,大...
阅读原文

英伟达终于发布自家大语言模型,专攻辅助芯片设计

夕小瑶科技说 分享来源 | 量子位英伟达推出了自家最新430亿参数大语言模型——ChipNeMo。对于它的用途,英伟达在官方披露消息中也是非常的明确,剑指AI芯片设计...
阅读原文

英伟达发布大语言模型,专攻辅助芯片设计

金磊 发自 凹非寺量子位 | 公众号 QbitAI英伟达推出了自家最新430亿参数大语言模型——ChipNeMo。对于它的用途,英伟达在官方披露消息中也是非常的明确,剑指AI...
阅读原文

图模型也要大?清华朱文武团队有这样一些观点

机器之心专栏机器之心编辑部在大模型时代,图机器学习面临什么样的机遇和挑战?是否存在,并该如何发展图的大模型?针对这一问题,清华大学朱文武教授团队首...
阅读原文

用童话训练AI模型,微软找到了探索生成模型参数的新切入点

选自量子杂志作者:Ben Brubaker机器之心编译编辑:赵阳即便大语言模型的参数规模日渐增长,其模型中的参数到底是如何发挥作用的还是让人难以琢磨,直接对大...
阅读原文

李航:关于大模型的思考及研究热点

来源:图灵人工智能本文阐述李航老师对 LLM 的一些看法,主要观点如下:ChatGPT 的突破主要在于规模带来的质变和模型调教方式的发明。LLM 融合了实现人工智能...
阅读原文

像搭乐高一样做数学定理证明题,GPT-3.5证明成功率达新SOTA

机器之心专栏机器之心编辑部中山大学和华为等机构的研究者提出了 LEGO-Prover,实现了数学定理的生成、整理、储存、检索和复用的全流程闭环。背景作为长链条...
阅读原文

港大等发布GraphGPT:1/50微调参数,准确率提升10倍!无需超长token,LLM也能读懂图结构

新智元报道编辑:LRS【新智元导读】GraphGPT框架将图结构模型和大语言模型进行参数对齐,利用双阶段图指令微调范式提高模型对图结构的理解能力和适应性,再整...
阅读原文

35年首次证明!NYU重磅发现登Nature:神经网络具有类人泛化能力,举一反三超GPT-4

新智元报道编辑:编辑部【新智元导读】Nature刊登了纽约大学等机构的研究人员在人工智能领域最新突破,证明神经网络具有类似人类语言的泛化性能,再一次印证...
阅读原文
1222324252629