Intern-S2-Preview – 上海 AI Lab 开源的科学多模态大模型
Intern-S2-Preview,由上海人工智能实验室匠心打造,是书生科学多模态大模型系列的最新一代预览版本。这款模型以其350亿的参数规模,却能展现出比肩万亿参数模型的强大科学洞察力。通过“通专融合”的全链路训练模式,并辅以强化学习的驱动,Intern-S2-Preview 在开源通用大模型领域实现了里程碑式的突破——首次成功生成材料晶体结构。在MolecularIQ评测中,它斩获了57.26的高分,晶体结构生成成功率更是超过40%,其表现显著优于市面上主流的闭源模型。
Intern-S2-Preview:科学探索的强大引擎
Intern-S2-Preview 不仅仅是一个模型,更是科研创新的加速器。它以350亿参数的精巧设计,孕育出媲美万亿参数模型的科学能力。其核心优势在于“通专融合”的全链路训练策略,结合强化学习的深度优化,使得模型在开源通用大模型领域独树一帜,首次实现了材料晶体结构的生成。在权威的MolecularIQ评测中,该模型取得了57.26的优异成绩,晶体结构生成通过率高达40%以上,远超诸多闭源模型。此外,它在复杂的科学推理、生物多组学数据的解读以及智能体任务的执行方面也表现出色。得益于与昇腾Atlas 900 A3超节点的深度协同优化,Intern-S2-Preview 在算法、系统和算力层面实现了完美融合,为科研人员提供了一个高效且易于使用的AI基础设施。
Intern-S2-Preview 的核心能力集
- 多模态科学洞察:模型能够深入理解并分析多组学序列数据,对生物显微图像进行精准问答,解读生物分子的指令,推理分子结构,处理复杂的科学多模态任务,并具备遥感数据的感知与推理能力,实现全方位的科学理解。
- 材料晶体结构生成创举:作为开源通用大模型的先驱,Intern-S2-Preview 首次实现了材料晶体结构的生成。通过引入创新的实数预测模块,它能够进行高精度的坐标回归和分子结构的空间建模。
- 数学与复杂逻辑推理:模型在数学领域表现卓越,能够解答国际数学奥赛难题,进行多模态数学推理,并攻克高中数学竞赛的挑战。其思维链折叠技术实现了极致压缩的高效推理。
- 长程文本与跨模态推理:Intern-S2-Preview 具备处理超长科学文献和复杂跨模态信息的能力,无论是纯文本还是多模态数据,都能进行深入的推理分析。
- 科学图表与数据解析:模型能够专业地解读科学图表和数据可视化内容,提供精准的问答和分析。
- 科学代码生成助手:在科学编程和算法求解场景下,Intern-S2-Preview 表现出色,能够高效生成科学计算、算法开发和科研脚本的代码。
- 通用智能体任务执行专家:模型展现出强大的智能体能力,能够执行科学智能体交互、科学竞赛与研究智能体任务,以及OpenClaw编码智能体和软件工程智能体等复杂任务的规划与自主执行。
- 精准指令跟随与代码生产:模型能够高精度地理解并执行用户指令,并能生成通用的代码。
Intern-S2-Preview 的技术内核
- “通专融合”全链路训练:该模型将数百项专业科学任务贯穿于预训练到强化学习的整个训练过程。为每个任务精心准备了从预训练到后训练的高质量数据和训练策略,实现了多任务的深度融合,促进了不同任务间的协同增效。
- 任务Scaling机制:通过不断提升任务难度和拓宽任务覆盖范围,Intern-S2-Preview 的能力得到了显著提升。当大量高难度科学任务被统一融合训练时,其350亿参数模型在多项科学任务上已能匹敌万亿参数模型的表现。
- 强化学习驱动的科学推理:通过延长强化学习的训练步长,并引入研究生级别的学科推理问题,模型被引导利用思维链完成生物多组学理解等专业任务。这种思维链的泛化能力使得小参数模型也能达到媲美大模型的性能。
- 数据思维密度优化(IQPT):秉承“Intelligence Quality per token”的理念,模型探索了思维链折叠等创新算法。通过构建数据思维密度杠杆,在数学推理中实现了同等智能水平下,参数量模型达到8倍于其的效率。
- 分子结构空间建模技术:引入了傅里叶位置编码(FoPE)和重构时序编码器,并新增了实数预测模块,从而实现了高精度的坐标回归。这使得模型在开源通用大模型中首次成功完成了材料晶体结构的生成。
- 训推一体化架构:基于XTuner训练框架和LMDeploy推理引擎,模型采用了共享MTP权重计算方式,有效减少了训练与推理阶段的不一致性,提升了draft token的接受率和生成效果。
- 昇腾算力协同优化:借助昇腾Atlas 900 A3超节点,模型在训练框架中集成了SP、chunk loss、activation offload等显存优化技术。针对变长输入,优化了数据分块和主机设备交互。通过离线模拟视觉和语言模块的算力占比,实现了多模态长序列训练的均衡资源分配。
如何激活 Intern-S2-Preview 的强大潜能
- 在线对话体验:访问书生大模型官方体验平台,即可与模型进行多轮对话,直观感受其在科学问答、分子结构理解、代码生成等方面的卓越能力。
- API 服务便捷接入:通过ChatAPI调用模型,只需在
model字段指定intern-s2-preview。默认开启的深度思考模式(thinking_mode)非常适合将其集成到科研工具链或自动化工作流程中。 - 智能体任务执行优化:若需发挥智能体能力(例如接入OpenClaw执行复杂的科研任务),强烈建议保持
thinking_mode开启,以确保任务拆解、工具调用及多步决策的稳定性和高效性。 - 开源模型本地部署:您可以从HuggingFace或ModelScope下载模型权重,并结合官方推荐的LMDeploy推理引擎进行本地部署,享受高效推理和多模态长序列处理的便利。
- 科研微调与训练:利用XTuner训练框架,您可以基于开源权重进行领域内的微调。训练阶段支持多token预测强化学习及共享MTP权重计算,为训推一体化迭代提供了有力支持。
- 晶体结构生成实战:针对材料科学领域,可以直接调用模型进行晶体结构生成和分子坐标回归,无需依赖扩散模型即可获得高精度的空间坐标预测结果。
Intern-S2-Preview 的项目链接
- 书生大模型官方体验平台:https://chat.intern-ai.org.cn/
- HuggingFace 平台:https://huggingface.co/internlm/Intern-S2-Preview
- ModelScope 平台:https://modelscope.cn/models/Shanghai_AI_Laboratory/Intern-S2-Preview
Intern-S2-Preview 的核心竞争力
- 35B参数,万亿级性能:以极小的参数规模,在多个关键科学领域实现了比肩万亿参数模型的卓越能力,极大地降低了科研使用门槛和部署成本。
- 晶体结构生成,开源首创:通过引入实数预测模块,Intern-S2-Preview 在开源通用大模型领域首次实现了材料晶体结构的生成。其MolecularIQ得分高达57.26,通过率超过40%,显著超越了GPT-5.5等闭源模型。
- 科学智能体能力领先群雄:在综合科学场景编程、科学发现任务中,Intern-S2-Preview 表现优于Claude-Haiku-4.5、GPT5.4-Nano等主流闭源模型,并在SciCode和PinchBench评测中位居同量级模型前列。
- “通专融合”全链路训练优势:将专业科学任务从预训练阶段延伸至强化学习阶段,多任务的融合产生了强大的协同效应,避免了单一阶段优化带来的能力此消彼长。
- 强化学习驱动的高效推理:借助思维链引导和思维链折叠算法,模型在数学推理中实现了同等智能水平下,参数量模型达到8倍于其的效率,实现了性能与效率的双重飞跃。
- 昇腾软硬件协同优化:基于昇腾Atlas 900 A3超节点,模型实现了算法、系统和算力的协同演进,训练稳定性和推理效率得到显著提升,充分验证了国产算力生态的价值。
- 训推一体化架构的流畅体验:XTuner训练框架与LMDeploy推理引擎的深度协同,通过共享MTP权重减少了训推不一致性,支持多模态长序列的高效训练与部署。
Intern-S2-Preview 与同类竞品深度对比
| 对比维度 | Intern-S2-Preview | Qwen3.6-35B-A3B | Step3.5-Flash |
|---|---|---|---|
| 发布机构 | 上海人工智能实验室 | 阿里巴巴通义千问团队 | 阶跃星辰 |
| 参数规模 | 35B | 35B | 196B |
| 模型定位 | 科学多模态大模型(通专融合) | 通用多模态大模型 | 通用多模态大模型 |
| 开源情况 | 开源(HuggingFace/ModelScope) | 开源 | 开源 |
| MolecularIQ 分子结构推理 | 57.26 | 32.62 | 45.94 |
| 晶体结构生成 | 首次开源实现,通过率>40% | 不支持 | 不支持 |
| SciCode 科学编程 | 39.64 | 40.60 | 46.15 |
| SGI-Bench 科学智能体交互 | 52.52 | 37.30 | 36.16 |
| MMLU Pro 通用知识推理 | 88.00 | 85.12 | 83.44 |
| IMO-Bench 国际数学奥赛 | 84.00 | 81.00 | 79.0 |
| PinchBench 通用智能体编码 | 88.22 | 87.05 | 85.00 |
| FrontierScience-Research 科研智能体 | 19.44 | 10.00 | 10.00 |
| 训练范式 | 全链路通专融合 + RL强化学习 | 通用预训练 + 后训练 | 通用预训练 + 后训练 |
| 算力生态 | 昇腾 Atlas 900 A3 深度优化 | 多元算力 | 多元算力 |
| 核心差异 | 以35B参数实现晶体结构生成等专有科学能力,科学智能体与推理效率显著领先同/更大规模模型 | 通用能力强,但在专业科学任务(分子结构、科研智能体)上明显落后 | 参数规模大,科学编程略优,但科学发现、分子推理与智能体任务落后,且不具备晶体结构生成能力 |
Intern-S2-Preview 的应用前景广阔
- 分子生物学与药物研发的革新:模型在多组学序列分析、生物分子指令理解与分子结构推理方面的能力,将有力推动靶点发现、化合物筛选及药物作用机制研究的进程。
- 材料科学的加速发现之旅:直接生成材料晶体结构并输出高精度空间坐标,将极大地加速新型半导体、催化剂、电池材料等研发的迭代速度。
- 科学计算与算法开发的强大支撑:在科学编程、算法求解和科研脚本编写方面,模型能够提供自动化代码生成,为物理模拟、化学计算、生物信息学处理等领域提供强大支持。
- 生物显微图像与遥感分析的深化应用:模型能够专业地问答和识别生物显微图像特征,同时支持遥感数据的感知与推理,为医学影像和地球科学领域的研究提供有力工具。
- 数学与复杂科学推理的突破:覆盖从国际数学奥赛到研究生级别学科推理的广泛领域,模型将辅助数学证明、公式推导和逻辑验证的效率。
- 科研智能体实现自动化执行:作为科学竞赛智能体、研究智能体或OpenClaw编码智能体,模型能够自主完成文献调研、实验设计、数据分析等多步骤的科研任务,实现科研流程的自动化。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...



粤公网安备 44011502001135号