AIGC动态欢迎阅读
原标题:清华团队研发脑启发AI模型,为感知信息处理提供全新范例
关键字:报告,语音,研究者,脑科学,启发
文章来源:人工智能学家
内容字数:4542字
内容摘要:
来源:脑机接口社区
运营/排版:何晨龙
人类天生具有分离各种音频信号的能力,比如区分不同的说话者的声音、或将声音与背景噪音区分开来。这种天生的能力被称为“会效应”。
中枢听觉系统通过分析声音流中的模式的统计结构(例如频谱或包络),可以轻松地在混合的声音中识别特定的目标声音。
在 AI 领域,设计与人类一样强大的语音分离系统长期以来一直是一个重要目标。
先前的神经科学研究提示:人类大脑经常利用视觉信息来帮助听觉系统解决“会问题”。
受到这一发现的启发,视觉信息被纳入进来以改善语音分离质量,由此产生的方法被称为多模态语音分离方法。
如果系统能够捕捉到唇部,这一额外线索将有助于语音处理,因为它在嘈杂环境中补充了语音信号的信息丢失。
然而,现有的多模态语音分离方法的分离能力仍远远不及人类大脑。
基于此,清华大学生物医学工程学院苑克鑫教授团队打造了一款脑启发 AI 模型(CTCNet,cortico-thalamo-cortical neural network)。
图| 苑克鑫(来源:苑克鑫)
该模型的语音分离性能大幅领先于现有方法,不仅为计算机感知信息处理提供了新的脑启发范例
原文链接:清华团队研发脑启发AI模型,为感知信息处理提供全新范例
联系作者
文章来源:人工智能学家
作者微信:AItists
作者简介:致力成为权威的人工智能科技媒体和前沿科技研究机构
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...