标签:文本生成

Tanka

Tanka 是具有长期记忆功能的 AI 智能通讯工具,专为团队协作设计。Tanka基于记忆过去的对话和业务上下文,提供智能回复、总结要点、设置提醒等服务,帮助团队...
阅读原文

SepLLM

SepLLM是香港大学、华为诺亚方舟实验室等机构联合提出的用于加速大语言模型(LLM)的高效框架,通过压缩段落信息并消除冗余标记,显著提高了模型的推理速度和...
阅读原文

TinyR1-Preview

TinyR1-Preview是北京大学计算机学院与360公司联合推出的32B参数量的推理模型。模型仅用5%的参数量,逼近Deepseek-R1-671B的性能,TinyR1-Preview在数学领域...
阅读原文

VLM-R1

VLM-R1 是 Om AI Lab 推出的基于强化学习技术的视觉语言模型,通过自然语言指令精确定位图像中的目标物体,如根据描述“图中红色的杯子”找到对应的图像区域。...
阅读原文

Moonlight-16B-A3B

Moonlight-16B-A3B 是 Moonshot AI 推出的新型 Mixture-of-Expert (MoE) 模型,具有 160 亿总参数和 30 亿激活参数。模型使用了优化后的 Muon 优化器进行训练...
阅读原文

Mistral Saba

Mistral Saba 是法国 Mistral AI 推出的专注于中东和南亚地区语言及文化的区域定制 AI 模型。模型拥有 240 亿参数,规模虽小,在处理阿拉伯语和印度起源语言...
阅读原文

ImageRAG

ImageRAG 是基于检索增强生成(Retrieval-Augmented Generation, RAG)的图像生成技术,通过动态检索相关图像来提升文本到图像(T2I)模型生成罕见或未见概念...
阅读原文

KTransformers

KTransformers是清华大学KVCache.AI团队联合趋境科技推出的开源项目,能优化大语言模型的推理性能,降低硬件门槛。KTransformers基于GPU/CPU异构计算策略,用...
阅读原文

TIGER

TIGER(Time-frequency Interleaved Gain Extraction and Reconstruction Network)是清华大学研究团队提出的轻量级语音分离模型,通过时频交叉建模策略,结...
阅读原文

通古大模型

通古大模型是华南理工大学深度学习与视觉计算实验室(SCUT-DLVCLab)推出的专注于古籍文言文处理的人工智能语言模型。基于百川2-7B-Base进行增量预训练,使用...
阅读原文

RWKV-7-2.9B

RWKV-7-2.9B模型(RWKV-7-World-2.9B-V3) 是RWKV 基金推出的先进 RNN 大语言模型。基于 RWKV World V3 数据集训练,具有 29 亿参数,支持世界所有语言。模型...
阅读原文

MAETok

MAETok(Masked Autoencoders Tokenizer)是卡内基梅隆大学、香港大学、北京大学等机构推出的用在扩散模型的新型图像标记化方法。MAETok基于掩码建模(Mask M...
阅读原文

ChatGPT Tasks

ChatGPT Tasks是OpenAI推出的新功能,属于OpenAI Agent的初步形态。ChatGPT Tasks赋予ChatGPT执行力,用户能在ChatGPT聊天界面的“4o与计划任务”模式中,用自...
阅读原文

Monoxer Junior

Monoxer Junior 是面向小学新生的AI家庭学习应用,日本公司Monoxer开发。基于AI技术根据儿童的学习水平和记忆状态智能出题,提供假名、汉字等丰富学习内容,...
阅读原文

Emotion-LLaMA

Emotion-LLaMA是多模态情绪识别与推理模型,融合了音频、视觉和文本输入,通过特定情绪编码器整合信息。模型基于修改版LLaMA,经指令调整以提升情感识别能力...
阅读原文
1234511