如何让等变神经网络可解释性更强?试试将它分解成「简单表示」

如何让等变神经网络可解释性更强?试试将它分解成「简单表示」

AIGC动态欢迎阅读

原标题:如何让等变神经网络可解释性更强?试试将它分解成「简单表示
关键字:神经网络,表示,线性,解读,周期性
文章来源:机器之心
内容字数:0字

内容摘要:


机器之心报道
编辑:Panda神经网络是一种灵活且强大的函数近似方法。而许多应用都需要学习一个相对于某种对称性不变或等变的函数。图像识别便是一个典型示例 —— 当图像发生平移时,情况不会发生变化。等变神经网络(equivariant neural network)可为学习这些不变或等变函数提供一个灵活的框架。
而要研究等变神经网络,可使用表示论(representation theory)这种数学工具。(请注意,「表示」这一数学概念不同于机器学习领域中的「表征」的典型含义。本论文仅使用该术语的数学意义。)
近日,Joel Gibson、Daniel Tubbenhauer 和 Geordie Williamson 三位研究者对等变神经网络进行了探索,并研究了分段线性表示论在其中的作用。论文标题:Equivariant neural networks and piecewise linear representation theory
论文地址:https://arxiv.org/pdf/2408.00949
在表示论中,简单表示(simple representation)是指该理论的


原文链接:如何让等变神经网络可解释性更强?试试将它分解成「简单表示」

联系作者

文章来源:机器之心
作者微信:
作者简介:

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...