标签:版本

英伟达开卷价格!最新Blackwell GPU架构/成本揭秘,彰显老黄的「仁慈」

新智元报道编辑:alan 好困 【新智元导读】老黄新GPU深夜炸场,超高规格的背后也付出了不小的代价,小编带大家深入了解一下新架构的硬件细节和成本,新显卡的...
阅读原文

谷歌狂喜:JAX性能超越Pytorch、TensorFlow!或成GPU推理训练最快选择

新智元报道编辑:编辑部 【新智元导读】JAX在最近的基准测试中的性能已经不声不响地超过了Pytorch和TensorFlow,也许未来会有更多的大模型诞生在这个平台上。...
阅读原文

XZ恶意代码潜伏三年,差点引发核末日?后门投毒黑客身份成谜

新智元报道编辑:好困 Aeneas 【新智元导读】这个周末,开源软件xz后门事件,直接引发了安全界地震!一段恶意代码被悄悄植入了,险些波及各大Linux系统。好在...
阅读原文

GPT-4王冠没掉!Claude 3竞技场人类投票成绩出炉:仅居第三

丰色 发自 凹非寺量子位 | 公众号 QbitAIClaude 3的竞技场排名终于来了: 短短3天内,20000张投票,将榜单的流量推向空前。 最终,Claude 3最强的“大杯”模型O...
阅读原文

谷歌最强开源大模型亮相!Gemini技术下放,笔记本就能跑,可商用

明敏 发自 凹非寺量子位 | 公众号 QbitAI谷歌大模型,开源了! 一夜之间,Gemma系列正式上线,全面对外开放。 它采用Gemini同款技术架构,主打开源和轻量级,...
阅读原文

阿里大模型春节礼包来了:代码可执行率超GPT-4,1.5版本全系列开源

白交 发自 凹非寺量子位 | 公众号 QbitAI阿里大模型,再次开源大放送—— 发布Qwen1.5版本,直接放出六种尺寸。 最大的Qwen1.5-72B-Chat模型,在MT-Bench和Alpa...
阅读原文

直逼GPT-4开源模型大泄漏,AI社区炸锅!Mistral CEO自曝是旧模型,OpenAI再败一局?

新智元报道编辑:Aeneas 【新智元导读】这几天引发了AI社区大讨论的逼近GPT-4性能的泄漏模型「miqu」,的确是Mistral公司训练的一个旧模型的量化版。此前,冲...
阅读原文

PyTorch 2.2大更新!集成FlashAttention-2,性能提升2倍

新智元报道编辑:alan 【新智元导读】新的一年,PyTorch也迎来了重大更新,PyTorch 2.2集成了FlashAttention-2和AOTInductor等新特性,计算性能翻倍。新的一...
阅读原文

媲美GPT-4的开源模型泄露!Mistral老板刚刚证实:正式版本还会更强

白交 发自 凹非寺量子位 | 公众号 QbitAIMistral-Medium竟然意外泄露?此前仅能通过API获得,性能直逼GPT-4。 CEO最新发声:确有其事,系早期客户员工泄露。...
阅读原文

Mistral-Medium意外泄露?冲上榜单的这个神秘模型让AI社区讨论爆了

机器之心报道 机器之心编辑部「我现在 100% 确信 Miqu 与 Perplexity Labs 上的 Mistral-Medium 是同一个模型。」 近日,一则关于「Mistral-Medium 模型泄露...
阅读原文

编程能力超GPT-4,羊驼代码版“超大杯”来了,小扎还亲自剧透Llama3

克雷西 发自 凹非寺量子位 | 公众号 QbitAI羊驼家族的“最强开源代码模型”,迎来了它的“超大杯”—— 就在今天凌晨,Meta宣布推出Code Llama的70B版本。 在HumanE...
阅读原文

小扎官宣Code Llama重量级更新,新增70B版本,但还有能力限制

机器之心报道 编辑:蛋酱、陈萍功能更强大的 Code Llama 70B 模型来了。今天,Meta 正式发布 Code Llama 70B,这是 Code Llama 系列有史以来最大、性能最好的...
阅读原文

ChatGPT惊艳更新!一个@让三百万GPTs为你打工

梦晨 西风 发自 凹非寺量子位 | 公众号 QbitAIChatGPT悄悄更新个大功能!看起来要把插件系统迭代掉了。 部分(灰度)用户已经收到这样的提示: 现在可以在对话...
阅读原文

独家|非 Transformer 开源大模型 RWKV 元始智能已完成种子轮融资

训练出千亿模型依然是 RWKV 当下最能证明自己的事情。作者丨张 进 编辑丨陈彩娴 AI科技评论独家获悉,开源LLM RWKV背后的元始智能,种子轮融资已于1月16日走...
阅读原文

ICLR接收结果出炉!有人提出异议:论文稍微超过9页,就被拒了??

白交 发自 凹非寺量子位 | 公众号 QbitAI一觉醒来,朋友圈、各个社区有人欢喜有人愁。 ICLR 2024接收结果揭晓!据统计,本届会议共收到了7262篇论文,整体接...
阅读原文