标签:向量
AI赚钱副业~AI生成影视解说,半个月涨粉变现3.5W+!
这两年大家都在感叹生活不易,然而我想说的是,机会还是有的,但问题不在于有没有,而在于你是否能够认准机会,然后抓住它。 接触过很多咨询项目的人,发现...
从长窗口到多向量:RAG范式下AI Infra的机遇和挑战| Jina AI CTO王楠博士演讲预告
12月5日-6日,2024中国生成式AI大会(上海站)将正式举行。 2024中国生成式AI大会(上海站)是在今年4月18-19日成功举办2024中国生成式AI大会(北京站)的基...
LoRA、完全微调到底有何不同?MIT 21页论文讲明白了
机器之心报道 编辑:陈陈、小舟本文旨在了解两种微调大型语言模型方法之间的差异:完全微调和低秩自适应 (LoRA)。这两种方法都用于将预训练模型适应特定的下...
大模型内部也有功能分区,MIT团队揭示其“大脑”结构
来源:DeepTech深科技 AI 的“大脑”究竟长什么样? 近期,来自美国麻省理工学院的研究团队通过稀疏自编码器(SAE,Sparse Autoencoder)在大语言模型的激活空...
AI自己「长出」了类似大脑的「脑叶」?新研究揭示LLM特征的惊人几何结构
机器之心报道 编辑:张倩、蛋酱大型语言模型在学习概念时竟然会形成令人惊讶的几何结构,比如代码和数学特征会形成一个「叶(lobe)」,类似于我们在做磁共振...
MIT大牛新发现:LLM和人类大脑结构类似,存在脑叶分区!
夕小瑶科技说 分享来源 | 新智元LLM居然长「脑子」了? 就在刚刚,MIT传奇大牛Max Tegmark团队的新作,再次炸翻AI圈。 论文地址:https://arxiv.org/abs/2410...
AI「长脑子」了?LLM惊现「人类脑叶」结构并有数学代码分区,MIT大牛新作震惊学界!
新智元报道编辑:编辑部 HYZ 【新智元导读】Max Tegmark团队又出神作了!他们发现,LLM中居然存在人类大脑结构一样的脑叶分区,分为数学/代码、短文本、长篇...
LLM实践系列-数据去重之Simhash&Minhash分析与实现
讲座预告11月1日上午10点,南开大学在读博士李森茂,将以《基于扩散模型编码器模块的推理加速》为主题进行直播讲解,欢迎扫码报名~今天给大家带来知乎@真中合...
7天开发一个AI Agent应用!秘密武器:一体化数据库
明敏 发自 凹非寺量子位 | 公众号 QbitAI几个工程师、一个星期,就能做一个AI Agent应用了。 效果be like—— 能理解用户复杂长命令,推荐符合要求的奶茶店。 ...
英伟达nGPT重塑Transformer,AI训练速度暴增20倍!文本越长,加速越快
新智元报道编辑:桃子 LRS 【新智元导读】LLM训练速度还可以再飙升20倍!英伟达团队祭出全新架构归一化Transformer(nGPT),上下文越长,训练速度越快,还能...
国产AI模型登顶全球TOP 1!智源BGE下载破亿成Hugging Face月榜冠军,RAG「瑞士军刀」破纪录
新智元报道编辑:编辑部 HYZ 【新智元导读】国产首个AI模型登顶Hugging Face月榜冠军!发布短短一年,BGE模型总下载量破数亿,位居国产TOP 1。如今,它在开源...
国产模型首开Hugging Face月度下载全球第一,智源BGE累计下载逾亿
机器之心发布 机器之心编辑部近日,Hugging Face更新了月度榜单,智源研究院的BGE模型登顶榜首,这是中国国产AI模型首次成为Hugging Face月榜冠军。BGE在短短...
希望这篇是最清晰好懂的 Layernorm 原理解析
Hello,大家好,我是 JioNLP。 这一篇文章主要讲讲 Layer Normalization。在本文里,Layer Normalization 统一都被称为 layernorm。字面意思就是层归一化,也...
OpenAI开启推理算力新Scaling Law,AI PC和CPU的机会来了
梦晨 金磊 发自 凹非寺量子位 | 公众号 QbitAIOpenAI的新模型o1,可谓是开启了Scaling Law的新篇章—— 随着更多的强化学习(训练时计算)和更多的思考时间(测...
比LoRA更高效!上交大&哈佛推出新微调框架,瞄准特定任务方向
DV lab 投稿量子位 | 公众号 QbitAI比LoRA更高效的模型微调方法来了—— 以常识推理为例,在参数量减少8~16倍的情况下,两种方法能达到相同效果。 新方法名叫Lo...
首次!用合成人脸数据集训练的识别模型,性能高于真实数据集
AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术...