AI项目和框架

Vidu Q2参考生Pro

Vidu Q2参考生Pro是全球首创的「万物可参考」视频模型,模型通过支持多模态输入(2个视频和4张图片),为创作者提供强大的功能。
阅读原文

LingBot-Depth

LingBot-Depth 是蚂蚁灵波科技开源的高精度空间感知模型,专为解决机器人在透明、反光物体(如玻璃)场景下的深度感知难题设计。
阅读原文

Kimi K2.5

Kimi K2.5 是月之暗面开源的全新一代全能旗舰模型,模型基于约 15T 视觉与文本数据训练而成,具备顶尖的代码生成、视觉理解能力,支持自主 Agent 集群协作,...
阅读原文

白虎-VTouch

白虎-VTouch是国家地方共建人形机器人创新中心联合纬钛机器人开源的全球首个最大规模跨本体视触觉多模态数据集。数据集包含视触觉传感器数据、RGB-D数据、关...
阅读原文

TensorRT LLM

TensorRT LLM 是 NVIDIA 推出的优化大型语言模型(LLM)在 NVIDIA GPU 上的推理性能框架。TensorRT LLM 基于 PyTorch 架构,提供高效易于使用的 Python API,...
阅读原文

Qwen3-Max-Thinking

Qwen3-Max-Thinking是阿里最新推出的千问旗舰推理模型,参数量超1万亿,预训练数据达36T Tokens。模型通过测试时扩展机制和强化学习,显著提升推理性能和效率...
阅读原文

SGLang

SGLang 是开源的高性能大型语言模型和多模态模型推理框架。框架提供低延迟、高吞吐量的推理服务,支持从单个 GPU 到大规模分布式集群的部署。
阅读原文

vLLM

vLLM 是加州大学伯克利分校 Sky Computing Lab 开源的大语言模型(LLM)推理和部署框架,支持为用户提供快速、低成本的模型服务。vLLM 通过创新的内存管理技...
阅读原文

混元图像3.0图生图

混元图像3.0图生图模型(HunyuanImage 3.0-Instruct)是腾讯推出的先进图像生成与编辑模型。模型基于80B参数的混合专家(MoE)架构,能深度理解用户输入的图...
阅读原文

D4RT

D4RT(Dynamic 4D Reconstruction and Tracking)是谷歌 DeepMind 推出的动态 4D 重建模型。模型通过统一的「时空查询」接口,将 3D 重建、相机追踪和动态物...
阅读原文

FlowAct-R1

FlowAct-R1是字节跳动推出的实时交互数字人视频生成框架,仅需单张参考图和音频,支持流式生成无限时长的全身动态视频。
阅读原文

Agentation

Agentation 是开源的AI编程协作工具,能解决开发者与 AI 编程助手之间沟通效率低下的问题。工具通过让用户直接在网页上标注问题,将视觉反馈转化为代码可读的...
阅读原文

LightOnOCR-2-1B

LightOnOCR-2-1B 是 LightOnAI 推出的高效 OCR 模型,参数量仅 1B,在复杂文档处理中表现卓越,擅长学术论文、数学公式和复杂表格的识别。
阅读原文

VibeVoice-ASR

VibeVoice-ASR 是微软开源的先进语音识别模型,专为处理长达60分钟的长音频设计。模型能一次性处理整段音频,保持全局上下文,避免传统模型分段处理导致的上...
阅读原文

Being-H0.5

Being-H0.5 是卢宗青团队推出的通用机器人模型,能通过人类先验知识和统一的动作对齐,解决机器人在不同形态硬件间的策略迁移问题。
阅读原文
1910111213178