标签:解释性
帕金森早期诊断准确率提高至90.2%,深圳先进院联合中山一院提出GSP-GCNs模型
大数据文摘授权转载自HyperAI超神经 作者:彬彬 编辑:李宝珠,三羊 震颤、动作迟缓、表情僵硬……提起帕金森病,多数人会率先想到「手抖」,殊不知,在患病中...
帕金森早期诊断准确率提高至 90.2%,深圳先进院联合中山一院提出 GSP-GCNs 模型
作者:彬彬 编辑:李宝珠,三羊 中山大学附属第一医院&中科大先进院等研究团队,提出了一种深度学习模型——图信号处理-图卷积网络 (GSP-GCNs),利用从涉及...
用多模态LLM做自动驾驶决策器,可解释性有了!比纯端到端更擅长处理特殊场景,来自商汤
丰色 曹原 发自 凹非寺量子位 | 公众号 QbitAI用多模态大模型做自动驾驶的决策器,效果居然这么好? 来自商汤的最新自动驾驶大模型DriveMLM,直接在闭环测试...
OpenAI最强竞品训练AI拆解LLM黑箱,意外窥见大模型「灵魂」
新智元报道编辑:润【新智元导读】Anthropic的模型可解释性团队,从大模型中看到了它的「灵魂」——一个可解释的更高级的模型。为了拆开大模型的「黑箱」,Anth...
山东大学开发可解释深度学习算法 RetroExplainer,4 步识别有机物的逆合成路线
点击上方蓝字,关注我们!By 超神经逆合成旨在找到一系列合适的反应物,以高效合成目标产物。这是解决有机合成路线的重要方法,也是有机合成路线设计的最简单...
打破大模型黑盒,彻底分解神经元!OpenAI对头Anthropic击破AI不可解释性障碍
新智元报道编辑:Lumina【新智元导读】距离破解大模型「黑箱」难题又近了一步!近日,来自Anthropic的研究团队通过采用稀疏自动编码器的弱字典学习算法,从51...
深度学习可解释性新进展!Claude团队利用字典学习分解大模型神经元
夕小瑶科技说 分享来源 | 量子位作者 | 丰色神经网络的不可解释性,一直是AI领域的“老大难”问题。但现在,我们似乎取得了一丝进展——ChatGPT最强竞对Claude背...
分解大模型的神经元!Claude团队最新研究火了,网友:打开黑盒
丰色 发自 凹非寺量子位 | 公众号 QbitAI神经网络的不可解释性,一直是AI领域的“老大难”问题。但现在,我们似乎取得了一丝进展——ChatGPT最强竞对Claude背后的...
76页综述+300余篇参考文献,天大团队全面介绍大语言模型对齐技术
机器之心专栏作者:熊德意教授团队天大自然语言处理团队从更广泛的 AI 对齐视角,审视大语言模型对齐技术,并从多个角度进行深入讨论。近日,天津大学熊德意...
一文捋清大模型可解释性,中美多家研究机构联合发布综述
夕小瑶科技说 分享来源 | 机器之心大规模语言模型在自然语言处理方面展现出令人惊讶的推理能力,但其内在机理尚不清晰。随着大规模语言模型的广泛应用,阐明...
大模型可解释性你能理得清吗?综述已来,一文解你疑惑
机器之心专栏机器之心编辑部大规模语言模型在自然语言处理方面展现出令人惊讶的推理能力,但其内在机理尚不清晰。随着大规模语言模型的广泛应用,阐明模型的...
大模型如何可解释?新泽西理工学院等最新《大型语言模型可解释性》综述
来源:专知大型语言模型(LLMs)在自然语言处理方面展示了令人印象深刻的能力。然而,它们的内部机制仍然不清楚,这种不透明性对下游应用带来了不希望的风险...
详解OpenAI 首席科学家最重要的工作,他为什么要实现超级对齐?
OpenAI于今年7月首次提出超级对齐的概念,并宣布投入20%的计算资源,花费4年的时间全力打造一个超级对齐(Superalignment)系统,意在解决超级智能的对齐问题...
12