标签:参数

修改LLaMA2-13B一个参数,语言能力全丧失,复旦等发现大模型新秘密

从年初到现在,以 ChatGPT、LLaMA 等为代表的大语言模型(LLM)展现出了类似人类水平的语言能力,这些大模型可以高效的执行复杂任务,而这些任务往往需要抽象...
阅读原文

Llama与ChatGPT,谁是23年AI模型最大的赢家?

夕小瑶科技说 原创作者 | TscomLlama与ChatGPT,谁是23年AI模型最大的赢家?相对于今年爆🔥的ChatGPT,在短时间内吸引了1亿用户的生成式AI模型 Llama和开源AI...
阅读原文

手机大模型爆发:vivo 发布自研蓝心大模型,参数追赶 GPT-3

蓝厂,它真的只想当手机厂?作者丨郭 思编辑丨陈彩娴11月1日vivo开发者大会上,vivo发布自研AI'蓝心'大模型,并发布大模型矩阵,包括1750亿、1300亿、700亿、...
阅读原文

ChatGPT真实参数只有200亿,首次被微软曝光!网友:难怪OpenAI对开源很紧张

白交 发自 凹非寺量子位 | 公众号 QbitAI突然间,整个大模型圈都在谈论同一件事。微软论文里一张「乍一看不足为奇」的统计图,泄露了“天机”。引领全球风暴的C...
阅读原文

微软惊天泄密:ChatGPT参数只有200亿?

来源:机器之心这合理吗?谁都没有想到,ChatGPT 的核心秘密是由这种方式,被微软透露出来的。昨天晚上,很多讨论 AI 的微信群都被一篇 EMNLP 论文和其中的截...
阅读原文

万万没想到,ChatGPT参数只有200亿?

夕小瑶科技说 分享来源 | 机器之心这合理吗?谁都没有想到,ChatGPT 的核心秘密是由这种方式,被微软透露出来的。昨天晚上,很多讨论 AI 的微信群都被一篇 EM...
阅读原文

8张3090,1天压缩万亿参数大模型!3.2TB骤降至160GB,压缩率高达20倍

新智元报道编辑:好困【新智元导读】最近,来自ISTA的研究人员提出了一种全新的模型量化方法QMoE,可以将1.6万亿个参数的SwitchTransformer压缩到160GB以下(...
阅读原文

微软论文一张截图,曝出GPT-3.5仅有200亿参数?AI圈巨震,网友大呼太离谱!

新智元报道编辑:编辑部【新智元导读】微软最近一篇论文爆料,GPT-3.5的参数量只有20B,远远小于之前GPT-3公布175B。网友表示,ChatGPT能力似乎「配得上」这...
阅读原文

用童话训练AI模型,微软找到了探索生成模型参数的新切入点

选自量子杂志作者:Ben Brubaker机器之心编译编辑:赵阳即便大语言模型的参数规模日渐增长,其模型中的参数到底是如何发挥作用的还是让人难以琢磨,直接对大...
阅读原文

马斯克的AI第一枪,被华人科学家大将打响!xAI首个研究成果:训练无限深度神经网络

大数据文摘受权转载自头部科技文 | Congerry几个月前,马斯克通过 Twitter 宣布自己的人工智能公司xAI正式成立:成立一家 xAI 公司去了解宇宙的真实本质。当...
阅读原文

比传统量子化学计算快约40倍,机器学习揭示了如何将聚合物材料溶解在有机溶剂中

将 ScienceAI设为星标第一时间掌握新鲜的 AI for Science 资讯编辑 | 紫罗用有机溶剂溶解聚合物是高分子材料研究和开发中必不可少的过程,包括塑料回收、聚合...
阅读原文

马斯克xAI首个研究成果发布!创始成员杨格&姚班校友共同一作

西风 鱼羊 发自 凹非寺量子位 | 公众号 QbitAI马斯克的xAI,首项公开研究成果来了!共同一作之一,正是xAI创始成员、丘成桐弟子杨格(Greg Yang)。此前,杨...
阅读原文

用暂停token重新训练大模型,AI学会三思而后行

梦晨 发自 凹非寺量子位 | 公众号 QbitAI让ChatGPT给出答案之前多想想步骤,就能提高准确率。那么能不能省去提示词,直接把这种能力内化在大模型里呢?CMU与...
阅读原文

轻量级持续学习: 0.6%额外参数把旧模型重编程到新任务

机器之心专栏机器之心编辑部持续学习的目的是模仿人类在连续任务中持续积累知识的能力,其主要挑战是在持续学习新任务后如何保持对以前所学任务的表现,即避...
阅读原文

OpenAI科学家最新演讲:GPT-4即将超越拐点,1000倍性能必定涌现!

新智元报道编辑:桃子【新智元导读】GPT-4参数规模扩大1000倍,如何实现?OpenAI科学家最新演讲,从第一性原理出发,探讨了2023年大模型发展现状。「GPT-4即...
阅读原文
113141516