标签:数据

State of GPT:大神Andrej揭秘OpenAI大模型原理和训练过程

前言 OpenAI的创始人之一,大神Andrej Karpthy刚在微软Build 2023开发者大会上做了专题演讲:State of GPT(GPT的现状)。 在这个朴实无华的题目之下,Andrej...
阅读原文

大模型训练十戒

直播预告 | 5月30日晚7点,「智猩猩机器人新青年讲座」第7讲正式开讲,邀请到论文共一、港大罗谦博士将直播讲解《大模型驱动下的具身智能体脑身同步》,欢迎...
阅读原文

今日arXiv最热NLP大模型论文:清华大学提出IFT对齐算法,打破SFT与RLHF局限性

夕小瑶科技说 原创作者 | 谢年年 监督微调(Supervised Fine-Tuning, SFT)和基于人类反馈的强化学习(Reinforcement Learning from Human Feedback, RLHF)...
阅读原文

马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B

新智元报道编辑:编辑部 【新智元导读】马斯克最近哭穷表示,xAI需要部署10万个H100才能训出Grok 3,影响全球的大模型算力荒怎么解?昨天开源的这款MoE大模型...
阅读原文

谷歌搜索算法被扒,2500页巨细文件实名泄密!搜索排名谎言被揭穿

新智元报道编辑:庸庸 【新智元导读】就在刚刚,一份2500页的内部文档泄露,谷歌搜索算法的内幕,让不少人大跌眼镜。日前,谷歌2500页的内部文档被泄露,揭示...
阅读原文

【医疗健康工具汇总】国内首个医疗专科推理数据集;paperai可分析医学数据集;上海 AI 实验室开源医疗大模型群

在 AI for Science 的规模化推广过程中,低门槛使用且开源的高性能工具至关重要。一方面,科研人员能够通过上手使用,更加直观地了解 AI 的能力;另一方面,...
阅读原文

银河通用王鹤:让具身智能机器人“言出法随”,需攻克两大局限性丨GenAICon 2024

没有做好小模型的公司、没有能让动作小模型泛化的公司不可能让大模型泛化。 2024中国生成式AI大会于4月18-19日在北京举行,在大会第一天的主会场开幕式上,北...
阅读原文

云天励飞余晓填:剖解大模型技术演进与挑战,算法芯片化突破大模型落地“三角约束”丨GenAICon 2024

如何打破大模型应用的“三角约束”?云天励飞提出“算法芯片化”。 2024中国生成式AI大会于4月18-19日在北京举行,在大会第一天的主会场大模型专场上,云天励飞“...
阅读原文

甲对话田渊栋:Scaling law代表一个非常悲观的未来|甲子光年

Scaling law也许是对的,但不会是全部,因为scaling law本身代表一个非常悲观的未来——scaling law的本质是,用指数级的数据增长,来获得几个点的收益。最终人...
阅读原文

清华、华为等提出iVideoGPT:专攻交互式世界模型

机器之心报道 机器之心编辑部iVideoGPT,满足世界模型高交互性需求。近年来,生成模型取得了显著进展,其中视频生成正在成为一个新的前沿领域。这些生成视频...
阅读原文

适应多形态多任务,最强开源机器人学习系统「八爪鱼」诞生

机器之心报道 编辑:Panda一位优秀的相声演员需要吹拉弹唱样样在行,类似地,一个优秀的机器人模型也应能适应多样化的机器人形态和不同的任务,但目前大多数...
阅读原文

最难方言温州话被攻克!中国电信语音大模型支持30种方言,这题GPT-4o可不会做啊

白交 发自 凹非寺量子位 | 公众号 QbitAI更适配中文的语音大模型来了—— 来自中国电信人工智能研究院,AI领域Fellow大满贯科学家李学龙带队,发布首个能听懂30...
阅读原文

国产开源Sora上新:全面支持国产AI算力,可用ReVideo视频编辑,北大-兔展团队出品

衡宇 发自 凹非寺量子位 | 公众号 QbitAI北大-兔展联合发起的Sora开源复现计划Open-Sora-Plan,今起可以生成最长约21秒的视频了! 生成的视频水平,如下展示...
阅读原文

任意模态输入输出?语音/文本/图像/音乐都拿下! 复旦提出AnyGPT:序列建模的统一多模态 LLM

直播预告 | 5月28日10点,「智猩猩AI新青年讲座」第236讲正式开讲,密歇根大学安娜堡分校在读博士生张挥杰将直播讲解《利用多级框架和多解码器架构提高扩散模...
阅读原文

上交提出TrustGAIN,提出6G网络中可信AIGC新模式!

夕小瑶科技说 原创作者 | Axe_越4月16日至18日,2024全球6G技术大会在南京召开。会上,全球移动通信标准制定组织3GPP(第三代合作伙伴计划)的3位联席主席分...
阅读原文
15051525354126