CVPR 2024 | 基于MoE的通用图像融合模型,添加2.8%参数完成多项任务

CVPR 2024 | 基于MoE的通用图像融合模型,添加2.8%参数完成多项任务

AIGC动态欢迎阅读

原标题:CVPR 2024 | 基于MoE的通用图像融合模型,添加2.8%参数完成多项任务
关键字:图像,任务,特征,提示,适配器
文章来源:机器之心
内容字数:6803字

内容摘要:


AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com。论文链接:https://arxiv.org/abs/2403.12494
代码链接:https://github.com/YangSun22/TC-MoA
论文题目:Task-Customized Mixture of Adapters for General Image Fusion图 1 不同融合任务的源图像对融合结果的主导强度变化
研究背景与动机
图像融合的目的是将同一场景中不同传感器捕获的多源图像的互补信息整合到单个图像上。这种方式通常被用于提取图片重要信息和提高视觉质量。
目前,一般的图像融合主要包括多模态、多曝光、多焦图像融合等。融合任务表现出不同的融合机制。多曝光图像融合(MEF)的重点是将具有多个曝光程度的图像序列转换成一个高质量的全曝光图


原文链接:CVPR 2024 | 基于MoE的通用图像融合模型,添加2.8%参数完成多项任务

联系作者

文章来源:机器之心
作者微信:almosthuman2014
作者简介:专业的人工智能媒体和产业服务平台

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...