标签:下游

AI赚钱副业~AI生成影视解说,半个月涨粉变现3.5W+!

这两年大家都在感叹生活不易,然而我想说的是,机会还是有的,但问题不在于有没有,而在于你是否能够认准机会,然后抓住它。 接触过很多咨询项目的人,发现...

偏微分方程有了基础模型:样本需求数量级减少,14项任务表现最佳

机器之心报道 编辑:陈萍本文提出的 Poseidon 在样本效率和准确率方面都表现出色。偏微分方程(PDEs)被称为物理学的语言,因为它们可以在广泛的时间 - 空间...
阅读原文

即插即用,快速适配!港大FlashST:简单通用的智慧交通时空预测模型 | ICML 2024

新智元报道编辑:LRT 【新智元导读】华南理工大学和香港大学的研究人员在ICML 2024上提出了一个简单而通用的时空提示调整框架FlashST,通过轻量级的时空提示...
阅读原文

多功能RNA分析,百度团队基于Transformer的RNA语言模型登Nature子刊

将 ScienceAI设为星标 第一时间掌握 新鲜的 AI for Science 资讯编辑 | 萝卜芯 预训练语言模型在分析核苷酸序列方面显示出了良好的前景,但使用单个预训练权...
阅读原文

CVPR 2024 | 分割一切模型SAM泛化能力差?域适应策略给解决了

机器之心专栏 机器之心编辑部第一个针对「Segment Anything」大模型的域适应策略来了!相关论文已被CVPR 2024 接收。引言 大语言模型(LLMs)的成功激发了计...
阅读原文

大模型Scaling Law同样适用于下游任务性能?斯坦福、谷歌最新研究揭秘

机器之心报道 编辑:蛋酱、张倩大模型的成功很大程度上要归因于 Scaling Law 的存在,这一定律量化了模型性能与训练数据规模、模型架构等设计要素之间的关系...
阅读原文

模型越大,性能越好?苹果自回归视觉模型AIM:没错

机器之心报道 编辑:蛋酱、杜伟视觉模型,同样遵循「参数越多性能越强」的规律?刚刚,一项来自苹果公司的研究验证了这个猜想。 过去几年,大规模预训练模型...
阅读原文

手机上0.2秒出图、当前速度之最,谷歌打造超快扩散模型MobileDiffusion

机器之心专栏机器之心编辑部在手机等移动端侧运行 Stable Diffusion 等文生图生成式 AI 大模型已经成为业界追逐的热点之一,其中生成速度是主要的制约因素。...
阅读原文

「对齐」太强是坏事?人大最新研究:完美正样本反而会损害「图对比学习」

新智元报道编辑:LRS【新智元导读】人民大学最新研究指出,更好的数据增强虽然可以提升其在下游任务的泛化能力,但也会减弱对比学习的上游性能。近年来,由于...
阅读原文