基于 2,500 平方公里实景数据,北师大团队提出 StarFusion 模型,实现高空间分辨率图像预测
AIGC动态欢迎阅读
原标题:基于 2,500 平方公里实景数据,北师大团队提出 StarFusion 模型,实现高空间分辨率图像预测
关键字:图像,遥感,模型,华为,解读
文章来源:HyperAI超神经
内容字数:0字
内容摘要:
作者:田小幺
编辑:李姝,李宝珠
北京师范大学陈晋团队提出了一种双流时空解耦融合架构模型 StarFusion,该模型将传统的 STF 方法与深度学习结合,能够克服大多数现有深度学习算法需要 HSR 时间序列图像进行训练的问题,充分实现高空间分辨率图像的预测。在科技浪潮是推动下,传统农业正经历一场智能化变革。作为现代农业的「千里眼」,农业遥感通过收集卫星和无人机等平台的遥感数据,被广泛应用于监测作物生长状况、土地利用与覆盖变化、病虫害情况、水资源管理和农业环境的演变等多个方面。农业遥感能够为决策者提供实时、深入的洞察力,确保了信息的精确性和决策的前瞻性。
然而,遥感数据在农业中应用通常需要高空间分辨率 (HSR) 和频繁的观测。受限于光学卫星影像的重访周期和云层污染等因素,卫星监测作物生长的能力经常会受到严重的影响。
为了获得高时空分辨率的合成图像,人们开发了许多时空融合方法,但现有方法在模型开发和验证方面主要集中在融合中低空间分辨率卫星数据,当涉及到融合中等和高空间分辨率图像时,其适用性仍然面临各种挑战。
为了解决这些问题,北京师范大学地表过程与资源生态国家重点实验室陈晋团队,提出了
原文链接:基于 2,500 平方公里实景数据,北师大团队提出 StarFusion 模型,实现高空间分辨率图像预测
联系作者
文章来源:HyperAI超神经
作者微信:
作者简介:
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...