AIGC动态欢迎阅读
原标题:图领域首个通用框架来了!入选ICLR'24 Spotlight,任意数据集、分类问题都可搞定|来自华盛顿大学&北大&京东
关键字:节点,任务,模型,提示,数据
文章来源:量子位
内容字数:5722字
内容摘要:
丰色 发自 凹非寺量子位 | 公众号 QbitAI能不能有一种通用的图模型——
它既能够根据分子结构预测毒性,又能够给出社交网络的朋友推荐?
或者既能预测不同作者的论文引用,还可以发现基因网络中的人类衰老机制?
你还真别说,被ICLR 2024接收为Spotlight的“One for All(OFA)”框架就实现了这个“精髓”。
它由圣路易斯华盛顿大学陈一昕教授团队、北京大学张牧涵以及京东研究院陶大程等研究者们联合提出。
作为图领域首个通用框架,OFA实现了训练单一GNN模型即可解决图领域内任意数据集、任意任务类型、任意场景的分类任务。
具体如何实现,以下为作者投稿。
图领域通用模型设计面临三大难设计一个通用的基础模型来解决多种任务是人工智能领域的一个长期目标。近年来,基础大语言模型(LLMs)在处理自然语言任务方面表现出色。
然而,在图领域,虽然图神经网络(GNNs)在不同的图数据中都有着不俗的表现,但如何设计与训练一个能同时处理多种图任务的基础图模型依然前路茫茫。
与自然语言领域相比,图领域的通用模型设计面临着许多独有的困难。
首先,区别于自然语言,不同的图数据有着截然不同的属性
原文链接:图领域首个通用框架来了!入选ICLR'24 Spotlight,任意数据集、分类问题都可搞定|来自华盛顿大学&北大&京东
联系作者
文章来源:量子位
作者微信:QbitAI
作者简介:追踪人工智能新趋势,关注科技行业新突破
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...