「对齐」太强是坏事?人大最新研究:完美正样本反而会损害「图对比学习」

AIGC动态10个月前发布 新智元
12 0 0

「对齐」太强是坏事?人大最新研究:完美正样本反而会损害「图对比学习」

AIGC动态欢迎阅读

原标题:「对齐」太强是坏事?人大最新研究:完美正样本反而会损害「图对比学习」

关键字:节点,数据,样本,对比,下游

文章来源:新智元

内容字数:6243字

内容摘要:新智元报道编辑:LRS【新智元导读】人民大学最新研究指出,更好的数据增强虽然可以提升其在下游任务的泛化能力,但也会减弱对比学习的上游性能。近年来,由于数据规模的增大以及标签信息的缺失,自监督方法的使用逐渐广泛。由于在图结构数据中可以轻松的利用边以及节点的drop进行增强,对比学习成为了天然的自监督范式。图对比学习在数据增强后,得到两个视图,两视图中的对应节点作为正样本,其余节点作为负样本。过去的研…

原文链接:点此阅读原文:「对齐」太强是坏事?人大最新研究:完美正样本反而会损害「图对比学习」

联系作者

文章来源:新智元

作者微信:AI_era

作者简介:智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人革命对人类社会与文明进化的影响,领航中国新智能时代。

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...