设置
  • 日夜间
    随系统
    浅色
    深色
  • 主题色

MiniMax 稀宇科技发布万亿参数 MoE 模型 abab 6.5,核心能力接近 GPT-4

2024/4/17 14:50:25 来源:IT之家 作者:泓澄(实习) 责编:泓澄

IT之家 4 月 17 日消息,国内 AI 初创企业 MiniMax 稀宇科技今日正式推出 MoE 混合专家模型架构的 abab 6.5 系列模型,核心能力开始接近 GPT-4、 Claude-3、 Gemini-1.5。

abab 6.5 系列包含两个模型:

  • abab 6.5:包含万亿参数,支持 200k tokens 的上下文长度;

  • abab 6.5s:与 abab 6.5 使用了同样的训练技术和数据,但是更高效,支持 200k tokens 的上下文长度,可以 1 秒内处理近 3 万字的文本。

自一月发布国内首个基于 MoE 架构的 abab 6 模型后,MiniMax 通过改进模型架构,重构数据 pipeline,训练算法及并行训练策略优化等,在加速 Scaling Laws 过程上取得阶段性成果。

IT之家附 abab 6.5 系列模型测试结果如下:

abab 6.5 系列模型测试结果

官方在 200k token 内进行了业界常用的“大海捞针”测试,即在很长的文本中放入一个和该文本无关的句子(针),然后通过自然语言提问模型,看模型是否准确将这个针回答出来。在 891 次测试中,abab 6.5 均能正确回答。

海螺 AI 页面

▲ 海螺 AI 页面

abab 6.5 与 abab 6.5s 模型将滚动更新至 MiniMax 旗下产品,包括海螺 AI 与 MiniMax 开放平台。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

相关文章

软媒旗下网站: IT之家 辣品 - 超值导购,优惠券 最会买 - 返利返现优惠券 iPhone之家 Win7之家 Win10之家 Win11之家

软媒旗下软件: 魔方 酷点桌面 Win7优化大师 Win10优化大师 软媒手机APP应用