MOSS(复旦大模型)官网

复旦大模型MOSS,正式开源了
网站服务:Moss,MOSS开源项目,复旦大模型,开源。

复旦大模型MOSS,正式开源了!MOSS开源地址一放出,又冲上知乎热搜:从官网介绍来看,MOSS是一个拥有160亿参数的开源对话语言模型。它由约7000亿中英及代码单词预训练得到,精度要求不那么高的话,甚至可以在单张3090显卡上运行。MOSS支持中英双语,拥有多轮对话和使用多种插件双重能力,具备搜索引擎、生图、计算器、方程求解的“技能点”。目前,MOSS在GitHub上已有2.3k Star,热度还在持续上涨中。那么,MOSS究竟开源了哪些项目,目前有哪些功能?一起来看看。会解方程,也能生成图片据了解,这次MOSS开源的是第三轮迭代版本,名叫MOSS 003。当然,MOSS 003也并非开源了全部模型,目前主要开放的是基座预训练模型,最终模型即将在近期开源:此前,MOSS已经经历了两版迭代,一版是公开邀请内测的MOSS 002版本,另一版是内部测试版本OpenChat 001。三月份大伙儿见证的“国内首个开放测试的GPT”,正是MOSS 002版本。最这个版本展现的功能效果如何?MOSS团队放出了它多轮对话、解方程、写代码、生成图片和回答道德伦理等示例。这是多轮对话的展示效果,具备资料追根溯源的能力:这是做数学题的示例,包括鸡兔同笼问题:也包括生成图片功能:还有近期网友热议的AI道德性问题:当然,这波里面也不乏“砸场子”的网友。例如官方GitHub问答中,有网友很想了解它的中能力和chatglm6b相比谁更好,下面有网友调侃:你是来砸场子的么?这也是因为此前团队在MOSS 002公开测试时曾经表示过,MOSS的中能力不算太好,这也与训练数据有关。除此之外,团队这次还开源了一部分训练数据。至于完整数据,复旦MOSS团队表示“近期会全部开源”。国内最先发布的GPT产品MOSS取自于《流浪地球》里面那个拥有自我意识的AI。它由复旦自然语言处理实验室邱锡鹏团队研发,2月20日正式发布。当时国内一众大厂还在陆续高调官宣要造GPT,谁都没想到它就这么一声不吭地杀了出来。所以尽管MOSS的参数量比GPT小了一个量级,大家还是蜂拥而上,把服务器都给挤爆了。而发布没过一周,复旦大学教授邱锡鹏就在演讲中提出,如果优化顺利,计划在三月底开源MOSS。因为在他看来:人们之所以很容易有“卡脖子”问题,是因为缺乏一个好的行业生态。就拿GPT来说,AI公司只需专注做好模型,算力、数据和系统则交给其他公司。反观国内,很多公司在做大型语言模型时所有环节都需要自己做,每家的数据和算力也有限,结果是每家都做不大。在发展过程中,大型语言模型训练与在线推理成本过高也是一个重大问题。因此,他们一开始就考虑要把MOSS开源而不是商业化。有了这样一个基座,大家就不用重复开发底层技术,可以在上面接不同的细分域。如今,虽晚了快一个月,MOSS也说到做到了。你试用过复旦MOSS开源模型了吗?效果如何?MOSS开源项目地址:[1]https://github.com/OpenLMLab/MOSS[2]https://huggingface.co/fnlp/moss-moon-003-base[3]https://huggingface.co/fnlp/moss-moon-003-sft[4]https://huggingface.co/fnlp/moss-moon-003-sft-plugin

MOSS(复旦大模型)网址入口

https://moss.fastnlp.top/

MOSS(复旦大模型)

OpenI小编发现MOSS(复旦大模型)网站非常受用户欢迎,请访问MOSS(复旦大模型)网址入口试用。

数据统计

数据评估

MOSS(复旦大模型)浏览人数已经达到64,如你需要查询该站的相关权重信息,可以点击"5118数据""爱站数据""Chinaz数据"进入;以目前的网站数据参考,建议大家请以爱站数据为准,更多网站价值评估因素如:MOSS(复旦大模型)的访问速度、搜索引擎收录以及索引量、用户体验等;当然要评估一个站的价值,最主要还是需要根据您自身的需求以及需要,一些确切的数据则需要找MOSS(复旦大模型)的站长进行洽谈提供。如该站的IP、PV、跳出率等!

关于MOSS(复旦大模型)特别声明

本站OpenI提供的MOSS(复旦大模型)都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由OpenI实际控制,在2023年 9月 25日 下午9:13收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,OpenI不承担任何责任。

相关导航

暂无评论

暂无评论...