AI项目和框架

Lyra:提升多模态交互体验的SmartMore创新解决方案

Lyra是香港中文大学、SmartMore和香港科技大学推出的高效多模态大型语言模型(MLLM),专注于提升语音、视觉和语言模态的交互能力。Lyra基于开源大型模型、多...
阅读原文

图森未来推出的图生视频大模型

Ruyi是图森未来科技有限公司推出的图生视频大模型,专为在消费级显卡上运行设计,支持多分辨率、多时长视频生成,具备首帧、首尾帧控制、运动幅度控制和镜头...
阅读原文

Large Action Models:微软行动大模型开发框架助力高效智能应用构建与部署

Large Action Models(LAMs)是微软推出大型行动模型的开发框架,能执行真实世界行动的智能系统,LAMs超越传统LLMs(Large Language Models,大型语言模型)...
阅读原文

Meta 开源的图像生成框架,精确控制人物的外观和姿势

Leffa(Learning Flow Fields in Attention)是 Meta AI推出的用在可控人物图像生成框架,基于在注意力机制中引入流场学习,精确控制人物的外观和姿势。Leffa...
阅读原文

Apollo:Meta与斯坦福大学携手推出创新多模态模型,实现图像与文本的深度融合与理解

Apollo是Meta和斯坦福大学合作推出的大型多模态模型(LMMs),专注于视频理解。Apollo基于系统研究,揭示视频理解在LMMs中的关键驱动因素,推出“Scaling Cons...
阅读原文

BrushEdit:智能指令驱动的图像编辑与修复框架全面提升创作效率与质量

BrushEdit是腾讯和北京大学等机构联合推出的先进图像编辑框架,是BrushNet模型的高级迭代版本。框架结合多模态大型语言模型(MLLMs)和双分支图像修复模型,...
阅读原文

博查推出的语义排序模型

Bocha Semantic Reranker是博查AI推出的语义排序模型,能提升搜索应用和RAG应用中的搜索结果准确性。Bocha Semantic Reranker模型基于文本语义,对初步排序的...
阅读原文

Veo 2:高分辨率4K视频生成的先进AI模型,助力创意无限

Veo 2 是 Google DeepMind 推出的 AI 视频生成模型,能根据文本或图像提示生成高质量视频内容。Veo 2支持高达 4K 分辨率的视频制作,理解镜头控制指令,能模...
阅读原文

清华开源的双臂机器人扩散基础模型

RDT(Robotics Diffusion Transformer)是清华大学AI研究院TSAIL团队推出的全球最大的双臂机器人操作任务扩散基础模型。RDT具备十亿参数量,能在无需人类操控...
阅读原文

阿里开源的语音生成大模型

CosyVoice 2.0 是阿里巴巴通义实验室推出的CosyVoice语音生成大模型升级版,模型用有限标量量化技术提高码本利用率,简化文本-语音语言模型架构,推出块感知...
阅读原文

无问芯穹开源的端侧全模态理解模型

Megrez-3B-Omni是无问芯穹推出的全球首个端侧全模态理解开源模型,能处理图像、音频和文本三种模态数据。Megrez-3B-Omni在多个主流测试集上展现出超越34B模型...
阅读原文

无需微调的推理框架,提升扩散模型生成能力首次实现8K分辨率图像

FreeScale是南洋理工大学、阿里巴巴集团和复旦大学推出无需微调的推理框架,提升预训练扩散模型生成高分辨率图像和视频的能力。FreeScale基于处理和融合不同...
阅读原文

西工大联合微软和香港大学推出的说唱乐生成模型

Freestyler是西北工业大学计算机科学学院音频、语音与语言处理小组(ASLP@NPU)、微软及香港中文大学深圳研究院大数据研究所共同推出的说唱乐生成模型,能直...
阅读原文

Snap联合港科大等机构推出的移动端文生图模型

SnapGen是Snap Inc、香港科技大学、墨尔本大学等机构联合推出的文本到图像(T2I)扩散模型,能在移动设备上快速生成高分辨率(1024x1024像素)的图像,且只需...
阅读原文

kimi推出的 k1 系列强化学习模型

k1 视觉思考模型是kimi推出的k1系列强化学习AI模型,原生支持端到端图像理解和思维链技术,将能力扩展到数学之外的更多基础科学领域。k1模型在图像理解、数学...
阅读原文
15556575859115