NLP七十年!斯坦福教授Manning长文梳理:十年后的基础模型能成AGI吗?

AIGC动态9个月前发布 新智元
10 0 0

NLP七十年!斯坦福教授Manning长文梳理:十年后的基础模型能成AGI吗?

AIGC动态欢迎阅读

动态标题:NLP七十年!斯坦福教授Manning长文梳理:十年后的基础模型能成AGI吗?

关键字:模型,自然语言,报告,语言,单词

文章来源:新智元

内容字数:10389字

内容摘要:新智元报道编辑:LRS【新智元导读】从手工规则、神经网络到Transformer基础模型,自然语言处理的未来是统一多模态,走向通用人工智能!过去十年间,仅靠简单的神经网络计算,以及大规模的训练数据支持,自然语言处理领域取得了相当大的突破,由此训练得到的预训练语言模型,如BERT、GPT-3等模型都提供了强大的通用语言理解、生成和推理能力。前段时间,斯坦福大学大学教授Christopher D. M…

原文链接:点此阅读原文:NLP七十年!斯坦福教授Manning长文梳理:十年后的基础模型能成AGI吗?

联系作者

文章来源:新智元

作者微信:AI_era

作者简介:智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人革命对人类社会与文明进化的影响,领航中国新智能时代。

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...