DeepMusic刘晓光:深度解读AIGC音乐创作技术原理,明年实现一键生成自唱歌曲丨GenAICon 2024

DeepMusic刘晓光:深度解读AIGC音乐创作技术原理,明年实现一键生成自唱歌曲丨GenAICon 2024

AIGC动态欢迎阅读

原标题:DeepMusic刘晓光:深度解读AIGC音乐创作技术原理,明年实现一键生成自唱歌曲丨GenAICon 2024
关键字:音乐,腾讯,解读,音频,模型
文章来源:智东西
内容字数:14809字

内容摘要:


深度解读AIGC音乐创作技术原理,明年实现30秒人声生成自唱歌曲。
2024中国生成式AI大会于4月18-19日在北京举行,在大会第二天的主会场AIGC应用专场上,DeepMusic CEO刘晓光以《AIGC如何赋能音乐创作与制作》为题发表演讲。
刘晓光系统性复盘了当前音乐商业格局,包括不同音乐用户群体的特征与主要使用产品、相关音乐公司的商业获利模式。
他提到当前音乐商业格局主要面向泛音乐爱好者的听歌及浅度实践用户的唱歌消费体验,中间有1亿以上活跃音乐人、音乐实践者群体的需求尚未得到好的产品满足;同时音乐制作流程长、门槛高,这使得音乐AIGC技术有用武之地。
音乐创作与制作本身具备一定的专业性门槛,非专业人士很难借助音乐来表达自我,AIGC的发展为音乐创作带来了另一种可能性。刘晓光不仅详细回顾了音乐生产工具的40年演变历程以及其中三个关键阶段,并对近期多个爆款AI音乐生成产品进行推演,解读其背后采用的技术方案。
刘晓光深入讲解了音频模型、符号模型两类AI音乐模型所涉及的工作原理、训练数据及算法技术,并就跨平台一站式AI音乐工作站“和弦派”的设计逻辑进行分享。“和弦派”以更直观的功能谱呈


原文链接:DeepMusic刘晓光:深度解读AIGC音乐创作技术原理,明年实现一键生成自唱歌曲丨GenAICon 2024

联系作者

文章来源:智东西
作者微信:zhidxcom
作者简介:智能产业新媒体!智东西专注报道人工智能主导的前沿技术发展,和技术应用带来的千行百业产业升级。聚焦智能变革,服务产业升级。

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...