大模型时代需要什么样的安全水位?火山方舟首度公开「会话无痕」技术细节

AIGC动态10小时前发布 机器之心
1 0 0

大模型时代需要什么样的安全水位?火山方舟首度公开「会话无痕」技术细节

AIGC动态欢迎阅读

原标题:大模型时代需要什么样的安全水位?火山方舟首度公开「会话无痕」技术细节
关键字:模型,方舟,数据,火山,用户
文章来源:机器之心
内容字数:0字

内容摘要:


机器之心原创
作者:吴昕2024 年,AI 大模型从「以分计价」跨入「以厘计价」的时代。
信号指向很清晰:把基础设施成本打下来,就是为了应用的爆发,但「算力价格」这把尺子还不够用。
在众多大模型中货比三家,需要投入大量信息成本。相信供应商、中间商「守规矩」、「靠谱」,更不易,信任成本过高,陷入囚徒困境,用户就会趋于保守,放弃潜在交易。
回首 2024,尽管大模型展现出非凡能力,破坏信任的糟心事儿也一直没断过。
4 月,海外某头部大模型商的 AI 语言模型因开源库漏洞导致用户对话泄露,致使意大利政府史无前例地叫停服务。此波未平,该产品长期记忆功能又出现严重漏洞,黑客可以随便访问用户聊天记录。
年初,荷兰一家数据公司的配置失误,导致多家企业(包括头部车企)的用户隐私数据遭泄露。
能力超凡、使用简单但又风险丛生,这样的混乱组合让企业老板难以驾驭。在采访全球多家企业、8000 多名 IT 专业人员后,IBM《 2023 年全球 AI 采用指数》发现:
和传统 AI 的采纳门槛不同,企业采纳生成式 AI 的最大障碍是数据隐私( 57% )以及信任和透明度( 43% )
一、AI 大模型,困于能力


原文链接:大模型时代需要什么样的安全水位?火山方舟首度公开「会话无痕」技术细节

联系作者

文章来源:机器之心
作者微信:
作者简介:

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...