标签:自然语言处理

Mistral Saba

Mistral Saba 是法国 Mistral AI 推出的专注于中东和南亚地区语言及文化的区域定制 AI 模型。模型拥有 240 亿参数,规模虽小,在处理阿拉伯语和印度起源语言...
阅读原文

Shallow Research

Shallow Research 是秘塔AI搜索推出的一种新的研究模式,能快速信息收集与初步分析,在短时间内完成对大量资料的整理和基础结论的提炼。Shallow Research 用“...
阅读原文

X-R1

X-R1是基于强化学习的低成本训练框架,能加速大规模语言模型的后训练(Scaling Post-Training)开发。X-R1用极低的成本训练0.5B(5亿参数)规模的R1-Zero模型...
阅读原文

unsloth

unsloth 是开源的大型语言模型(LLM)微调工具,基于优化计算步骤和 GPU 内核,显著提升模型训练速度减少内存使用。Unsloth支持多种主流 LLM,如 Llama-3、Mi...
阅读原文

厦门大学《大模型概念、技术与应用实践》(PPT文件)

《大模型概念、技术与应用实践》由厦门大学大数据教学团队制作,科普大模型技术及其在各领域的应用。强调其在大数据教学领域的影响力。回顾人工智能发展简史...
阅读原文

MatChat AI

MatChat AI 是松山湖材料实验室主导推出的材料科学领域AI工具。MatChat AI基于大语言模型和增强搜索技术,整合超过28万篇材料科学、物理、化学领域的专业论文...
阅读原文

Perplexity Deep Research

Perplexity Deep Research 是 AI 搜索引擎 Perplexity 推出的免费深度研究工具,通过强大的 AI 技术为用户提供全面且高效的研究报告。能执行数十次搜索,阅读...
阅读原文

Long-VITA

Long-VITA 是腾讯优图实验室、南京大学、厦门大学开源的多模态模型,能处理超过100万tokens的长文本输入,在短文本任务中表现出色。Long-VITA基于分阶段训练...
阅读原文

NobodyWho

NobodyWho是为 Godot 游戏引擎设计的插件,通过本地运行的大型语言模型(LLM)实现互动小说创作。支持 Windows、Linux 和 macOS 平台,用户无需联网即可使用...
阅读原文

TIGER

TIGER(Time-frequency Interleaved Gain Extraction and Reconstruction Network)是清华大学研究团队提出的轻量级语音分离模型,通过时频交叉建模策略,结...
阅读原文

AnyCharV

AnyCharV 是香港中文大学、清华大学深圳国际研究生院、香港大学联合推出的角色可控视频生成框架,能将任意参考角色图像与目标驱动视频相结合,生成高质量的角...
阅读原文

Sa2VA

Sa2VA是字节跳动联合加州大学默塞德分校、武汉大学和北京大学共同推出的多模态大语言模型,是SAM2和LLaVA结合而成,能实现对图像和视频的密集、细粒度理解。S...
阅读原文

WebLI-100B

WebLI-100B是Google DeepMind推出的包含1000亿图像-文本对的超大规模数据集,用在预训练视觉语言模型(VLMs)。WebLI-100B是WebLI数据集的扩展版本,基于从网...
阅读原文

OpenThinker-32B

OpenThinker-32B 是斯坦福、UC 伯克利、华盛顿大学等机构联合开发的开源推理模型,拥有 328 亿参数,支持 16,000 token 的上下文长度。模型仅使用 114k 数据...
阅读原文

GAS

GAS(Generative Avatar Synthesis from a Single Image)是卡内基梅隆大学、上海人工智能实验室和斯坦福大学的研究人员提出的从单张图像生成高质量、视角一...
阅读原文
1192021222368