标签:解释性
AI赚钱副业~AI生成影视解说,半个月涨粉变现3.5W+!
这两年大家都在感叹生活不易,然而我想说的是,机会还是有的,但问题不在于有没有,而在于你是否能够认准机会,然后抓住它。 接触过很多咨询项目的人,发现...
图像伪造照妖镜!北大发布多模态LLM图像篡改检测定位框架FakeShield
新智元报道编辑:LRST 【新智元导读】北京大学的研究人员开发了一种新型多模态框架FakeShield,能够检测图像伪造、定位篡改区域,并提供基于像素和图像语义错...
重磅:AI机制可解释性的理论基础:抽象因果
来源:图灵人工智能 Causal Abstraction:A Theoretical Foundation for Mechanistic Interpretability https://arxiv.org/pdf/2301.04709 v3 2024 摘要 因果...
LLM可解释性的未来希望?稀疏自编码器是如何工作的,这里有一份直观说明
机器之心报道 编辑:Panda简而言之:矩阵 → ReLU 激活 → 矩阵在解释机器学习模型方面,稀疏自编码器(SAE)是一种越来越常用的工具(虽然 SAE 在 1997 年左右...
谷歌Gemma 2 2B发布火爆,小模型如何撑起大格局?
大数据文摘授权转载自AI科技评论 作者:陈鹭伊 编辑:岑峰 语言模型的“小时代”正式到来? 北京时间8月1日凌晨(当地时间7月31日下午),Google深夜放出大招,...
谷歌 Gemma 2 2B 发布火爆,小模型如何撑起大格局?
Gemma系列语言模型正在引领着一场“小”的技术革命。作者丨陈鹭伊 编辑丨岑峰 语言模型的“小时代”正式到来? 北京时间8月1日凌晨(当地时间7月31日下午),Goog...
香港理工大学林婉瑜博士实验室招收 2025 fall 人工智能算法在科学领域的应用及可信人工智能全奖博士生/博士后
导师简介 Dr. LIN Wanyu (林婉瑜博士) 现任香港理工大学电子计算学系助理教授。她曾于加拿大多伦多大学取得博士学位。 她的主要研究方向包括人工智能算法在科...
打开黑盒神经网络!港大推出全新「会说话」的推荐系统大模型XRec,从黑盒预测到可解释
新智元报道编辑:LRST 【新智元导读】香港大学推出的XRec模型通过融合大型语言模型的语义理解和协同过滤技术,增强了推荐系统的可解释性,使用户能够理解推荐...
OpenAI新作署名Ilya,提取1600万个特征看透GPT-4大脑!
新智元报道编辑:乔杨 好困 【新智元导读】今天,OpenAI发布了一篇GPT-4可解释性的论文,似乎是作为前两天员工联名信的回应。网友细看论文才发现,这居然是已...
首次证实白盒Transformer可扩展性!马毅教授CRATE-α:鲸吞14亿数据,性能稳步提升
新智元报道编辑:LRS 【新智元导读】CRATE-α是一种新型Transformer架构变体,通过设计改进提升了模型的可扩展性、性能和可解释性,CRATE-α-Base在ImageNet分...
Ilya出走加剧OpenAI离职潮!RLHF作者Jan Leike同日辞职,超级对齐项目分崩离析
梦晨 发自 凹非寺量子位 | 公众号 QbitAIIlya Sutskever宣布退出OpenAI,震动整个AI圈。 数小时后,RLHF发明者之一Jan Leike也追随他的脚步一起离开,再次给O...
爆火后反转?「一夜干掉MLP」的KAN:其实我也是MLP
机器之心报道 编辑:蛋酱、张倩KAN 作者:我想传达的信息不是「KAN 很棒」,而是「尝试批判性地思考当前的架构,并寻求从根本上不同的替代方案,这些方案可以...
MLP一夜被干掉!MIT加州理工等革命性KAN破记录,发现数学定理碾压DeepMind
新智元报道编辑:桃子 LRS 【新智元导读】无需怀念MLP,新网络KAN基于柯尔莫哥洛夫-阿诺德定理,带着更少的参数、更强的性能、更好的可解释性来了,深度学习...
XAI有什么用?探索LLM时代利用可解释性的10种策略
机器之心专栏 机器之心编辑部你是否也好奇,在大模型时代,可解释性人工智能技术(XAI)有怎样的使用价值?近日,来自佐治亚大学、新泽西理工学院、弗吉尼亚...
OpenAI官宣开源Transformer Debugger!不用写代码,人人可以破解LLM黑箱
新智元报道编辑:编辑部 【新智元导读】刚刚,OpenAI超级对齐团队负责人官宣开源Transformer调试器。研究人员不用写代码,就能快速探索LLM的内部构造了!AGI...
今日arXiv最热NLP大模型论文:微软发布:大模型时代的可解释机器学习,现状与挑战
夕小瑶科技说 原创作者 | 谢年年、Python自深度学习开启了人工智能的黑盒模式,模型的可解释性一直都是专家学者讨论研究的重点。 为什么可解释性问题这么重要...
12