标签:下游
AI赚钱副业~AI生成影视解说,半个月涨粉变现3.5W+!
这两年大家都在感叹生活不易,然而我想说的是,机会还是有的,但问题不在于有没有,而在于你是否能够认准机会,然后抓住它。 接触过很多咨询项目的人,发现...
偏微分方程有了基础模型:样本需求数量级减少,14项任务表现最佳
机器之心报道 编辑:陈萍本文提出的 Poseidon 在样本效率和准确率方面都表现出色。偏微分方程(PDEs)被称为物理学的语言,因为它们可以在广泛的时间 - 空间...
即插即用,快速适配!港大FlashST:简单通用的智慧交通时空预测模型 | ICML 2024
新智元报道编辑:LRT 【新智元导读】华南理工大学和香港大学的研究人员在ICML 2024上提出了一个简单而通用的时空提示调整框架FlashST,通过轻量级的时空提示...
多功能RNA分析,百度团队基于Transformer的RNA语言模型登Nature子刊
将 ScienceAI设为星标 第一时间掌握 新鲜的 AI for Science 资讯编辑 | 萝卜芯 预训练语言模型在分析核苷酸序列方面显示出了良好的前景,但使用单个预训练权...
CVPR 2024 | 分割一切模型SAM泛化能力差?域适应策略给解决了
机器之心专栏 机器之心编辑部第一个针对「Segment Anything」大模型的域适应策略来了!相关论文已被CVPR 2024 接收。引言 大语言模型(LLMs)的成功激发了计...
大模型Scaling Law同样适用于下游任务性能?斯坦福、谷歌最新研究揭秘
机器之心报道 编辑:蛋酱、张倩大模型的成功很大程度上要归因于 Scaling Law 的存在,这一定律量化了模型性能与训练数据规模、模型架构等设计要素之间的关系...
模型越大,性能越好?苹果自回归视觉模型AIM:没错
机器之心报道 编辑:蛋酱、杜伟视觉模型,同样遵循「参数越多性能越强」的规律?刚刚,一项来自苹果公司的研究验证了这个猜想。 过去几年,大规模预训练模型...
手机上0.2秒出图、当前速度之最,谷歌打造超快扩散模型MobileDiffusion
机器之心专栏机器之心编辑部在手机等移动端侧运行 Stable Diffusion 等文生图生成式 AI 大模型已经成为业界追逐的热点之一,其中生成速度是主要的制约因素。...
「对齐」太强是坏事?人大最新研究:完美正样本反而会损害「图对比学习」
新智元报道编辑:LRS【新智元导读】人民大学最新研究指出,更好的数据增强虽然可以提升其在下游任务的泛化能力,但也会减弱对比学习的上游性能。近年来,由于...