只追求大模型很危险,超越OpenAI大模型的欧美AGI技术和公司

只追求大模型很危险,超越OpenAI大模型的欧美AGI技术和公司

AIGC动态欢迎阅读

原标题:只追求大模型很危险,超越OpenAI大模型的欧美AGI技术和公司
关键字:人工智能,智能,模型,人类,系统
文章来源:人工智能学家
内容字数:22618字

内容摘要:


来源:CreateAMind
目录:AGI研究路线图
执行原则综述
基准测试
研究原则
AGI突破背后的科学和标准
研究路线图人工智能的发展通常被描述为一个阶段性的进展,从所谓的“狭义人工智能”(ANI)——能够解决狭窄定义领域内的问题的系统——到逐渐变得更强大、适应性更强的系统,能够解决特定领域的问题。更领域通用的方式:所谓的“通用人工智能”(AGI)。除此之外,甚至可能设计出超越人类一般认知能力的人工系统:“人工智能”(ASI)。
我们的方法更侧重于设计各种智能代理:能够根据流式传感数据通知的世界模型实时更新进行规划、决策和行动的软件程序。这些智能体之间以及与人类可持续互动的集体智慧就是共享智能(我们路线图上的S4),它是我们的北极星,可以被视为 ASI 的一种版本。
回过头来看,要实现这一目标,需要设计出能够从人类的角度出发,从而体贴人类的智能体:交感智能(S3)。反过来,这种换位思考的能力需要有能力推理反事实情况和可能的未来:复杂的情报(S2)。复杂智能是感知智能(S1 )的更强大版本,是主动推理的最基本实现,它至少涉及对行为及其感官后果的信念。
执行原则:
人工智能不仅需要理


原文链接:只追求大模型很危险,超越OpenAI大模型的欧美AGI技术和公司

联系作者

文章来源:人工智能学家
作者微信:AItists
作者简介:致力成为权威的人工智能科技媒体和前沿科技研究机构

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...