热点关注丨复旦发布中国版ChatGPT:MOSS开启测试冲上热搜,服务器挤爆

来源:世展网 分类:人工智能行业资讯 2023-02-22 17:01 阅读:4982
分享:

2025年深圳国际人工智能展GAIE

2025-05-22-05-24

距离158

转自 机器之心

编辑:泽南、蛋酱ChatGPT是最先进的AI,也是最热门的应用 —— 自去年11月底发布以来,它的月活跃用户两个月超过一亿,轻松拿到了全球互联网史上用户增长速度的第一。它也是一种门槛很高的技术。由于ChatGPT的训练过程所需算力资源大、标注成本高,目前国内暂未出现对大众开放的同类产品。百度、阿里、京东等互联网大厂都放出消息,表示正在打造「国产 ChatGPT」,并将在近期发布。在各大厂产品到位之前,学界先有了消息。2月20日晚,复旦大学自然语言处理实验室发布了具备 ChatGPT能力的语言模型——MOSS,并面向大众公开邀请内测。 
  • MOSS体验链接:https://moss.fastnlp.top/

  • MOSS项目主页:https://txsun1997.github.io/blogs/moss.html

MOSS的名称来自电影《流浪地球》,和电影一样火的是,MOSS发布的消息很快冲上了知乎等平台热搜榜的第一位。不过与科幻不同的是,现实世界的AI还没有量子计算机加持,距离开放还没有过24个小时,由于瞬时访问压力过大,MOSS服务器昨晚已被挤爆,可见大家对于生成语言模型的期待程度有多高。据复旦大学研究人员介绍,目前在内测,与用户交互迭代优化,不适合公测。我们知道,自然语言处理是AI领域的最大挑战之一,虽然突破已经出现,但这个月上线的新必应搜索,以及谷歌发布的竞品BARD在测试中不时会出现问题,复旦大学的MOSS水平如何呢?对话MOSS,水平如何?MOSS的基础功能与ChatGPT类似,可以按照用户输入的指令完成各类自然语言处理任务,包括文本生成、文本摘要、翻译、代码生成、闲聊等等。在预览期间,MOSS的使用是免费的。MOSS和ChatGPT一样,构建的过程包括自然语言基础模型训练,以及理解人类意图的对话能力训练两个阶段。据项目主页介绍,MOSS和ChatGPT的主要区别在于:
  • MOSS的参数数量比ChatGPT少得多。
  • MOSS通过与人类和其他人工智能模型交谈来学习,而ChatGPT则通过人类反馈强化学习(RLHF)进行训练。
  • MOSS将是开源的,以促进未来的研究,但ChatGPT可能不会。
MOSS的对话水平如何,让我们看几个示例。以下是MOSS生成的一些交互记录:在这个例子中,用户首先要求MOSS推荐五部科幻电影,接着要求MOSS生成了一个表格来展示这些电影以及它们的导演,最后要求MOSS在表格中新插入一列来展示这些电影的上映年份。完成这一任务需要语言模型具备强大的多轮交互能力和指令理解能力,MOSS显然在这两方面表现优异。与ChatGPT类似,MOSS有时也会输出一些事实性错误的例子,比如例子中《黑客帝国》的导演并不是Thomas Neff,而是沃卓斯基兄弟(姐妹)。除了多轮对话,MOSS生成代码也不在话下。在下面的例子中,MOSS不仅可以为用户提供实现快速排序的Python代码,还能在用户的要求下对这段代码提供解释和使用示例,可谓是手把手教学的程序员了。除了让MOSS帮忙写代码之外,还可以向MOSS询问有关代码细节的问题,让其更好地帮助理解代码。在下面的例子中,用户向MOSS询问了一段代码的编程语言和功能,并进一步提问了其中一个函数的作用,MOSS均给出了满意的回复。此外,MOSS还具备人类的价值观,当被要求回答不合理的问题时,MOSS会拒绝回答并给出正确的劝导。据了解,MOSS采用参数量为百亿级的自研模型进行训练。在对话能力训练阶段,OpenAI收集了至少几十万条人类指令 —— 让各行各业的专业标注员写出指令回复,再将它们输入模型基座,以帮助ChatGPT逐步理解各种指令。复旦团队则采用不同的技术路线,通过让MOSS和人类以及其它AI模型都进行交互,显著提升了学习效率和研发效率,短时间内高效完成了对话能力训练。研发团队表示,虽然MOSS已经实现了ChatGPT的一些功能,但仍然存在许多限制,由于缺乏高质量的数据、计算资源和模型容量,MOSS仍然远远落后于ChatGPT。
  • 由于训练数据中的多语言语料库有限,MOSS在理解和生成英语以外的语言的文本方面表现不佳。团队目前正在开发一个改进版本,以提高其中文语言技能。
  • 由于模型容量相对较小,MOSS不包含足够的世界知识。因此,MOSS生成的一些响应可能包含误导性或虚假信息。
  • 有时 MOSS 以迂回的方式执行,甚至未能遵循指示。在这种情况下,用户可能需要重新生成几次或修改 prompt,以获得令人满意的回复。团队正在积极提高其遵循指示的能力以及生产力。
  • 有时 MOSS 可能会因 prompt 生成不道德或有害的反应。用户可通过单击 “不喜欢” 来帮助减少此类行为,团队将在下一个版本中更新模型。

研究团队指出,当前版本的 MOSS 表现仍不稳定,也受到数据集问题的影响:「MOSS 的英文回答水平比中文高,因为它的模型基座学习了 3000 多亿个英文单词,中文词语只学了约 300 亿个。」发布之后,团队将持续通过提供MOSS的可访问界面,根据宝贵的用户反馈(在许可下)不断改进模型。未来,研究人员还计划结合复旦在人工智能和相关交叉学科的研究成果,赋予MOSS绘图、语音、谱曲等多模态能力,并加强它辅助科学家进行高效科研的能力等。期待MOSS能为国内对话大模型的发展开一个好头。团队介绍MOSS的主要作者共有两位:复旦大学教授邱锡鹏和他的博士生孙天祥。此外还有多位成员对项目有所贡献。邱锡鹏,复旦大学计算机科学技术学院教授,博士生导师。国家优青获得者,于复旦大学获得理学学士和博士学位。主要从事自然语言处理、深度学习等方向的研究,发表CCF A/B类论文70余篇,获得ACL 2017杰出论文奖(CCF A 类)、CCL2019最佳论文奖、《中国科学:技术科学》2021年度高影响力论文奖,有5篇论文入选 PaperDigest 发布的 IJCAI/ACL/EMNLP 的最有影响力论文(被引用数进入前当届会议的 20 名)。出版开源专著《神经网络与深度学习》,Github关注数1.5万,豆瓣评分9.4分。主持开发了开源框架FudanNLP和FastNLP,已被国内外数百家单位使用。2015年入选首届中国科协青年人才托举工程项目,2018年获钱伟长中文信息处理科学技术奖青年创新奖一等奖,2020获第四届上海高校青年教师教学竞赛优等奖,2021年获首届上海市计算机学会教学成果奖一等奖(第一完成人)等。培养学生多次获得一级学会优博、微软学者、百度奖学金等。孙天祥,复旦大学计算机科学学院博士生,导师为邱锡鹏教授和黄萱菁教授。2019年毕业于西安电子科技大学。研究兴趣集中于机器学习及其在自然语言处理中的应用,特别是预训练语言模型的高效微调及推理、多任务学习、知识表示学习等。以第一作者在ICML, ACL, NAACL, AAAI, COLING等会议发表多篇论文。

相关人工智能行业展会

2025年深圳国际元宇宙及电竞娱乐展MES

2025-02-17~02-19 距离64
50781展会热度 评论(0)

2025年深圳国际人工智能展GAIE

2025-05-22~05-24 距离158
48132展会热度 评论(0)

2025年上海世界人工智能大会WAIC

2025-06-01~06-01 距离168
48003展会热度 评论(0)

2025年郑州世界数字产业博览会WDIE

2025-03-21~03-23 距离96
41476展会热度 评论(0)

2024年北京全球数字经济大会Global Digital Economy Conference

2024-07-02~07-05 展会结束
41287展会热度 评论(0)

2024年苏州人工智能展AIExpo

2024-12-10~12-11 展会结束
63960展会热度 评论(0)
X
客服
电话
13924230066

服务热线

扫一扫

世展网公众号

微信小程序

销售客服

门票客服

TOP
X