设置
  • 日夜间
    随系统
    浅色
    深色
  • 主题色

昆仑万维宣布 4 月 17 日发布并开源“天工大模型 3.0”:4000 亿参数,号称性能超 Grok 1.0

2024/4/2 9:08:47 来源:IT之家 作者:清源 责编:清源
感谢IT之家网友 lemon_meta 的线索投递!

IT之家 4 月 2 日消息,昆仑万维集团日前通过官方公众号宣布,在“天工”大模型发布一周年之际,天工大模型 3.0 将于 4 月 17 日正式开启公测,并将同步选择开源。“天工 3.0”采用 4000 亿级参数 MoE(混合专家模型),官方称是全球模型参数最大、性能最强的 MoE 模型之一,性能超过 Grok 1.0。

据介绍,相较于上一代“天工 2.0”MoE 大模型,“天工 3.0”在模型语义理解、逻辑推理、以及通用性、泛化性、不确定性知识、学习能力等领域拥有“惊人的”性能提升,其模型技术知识能力提升超过 20%,数学 / 推理 / 代码 / 文创能力提升超过 30%

“天工 3.0”还新增了搜索增强、研究模式、调用代码及绘制图表、多次调用联网搜索等能力,并针对性地训练了模型的 Agent 能力。其能够独立完成规划、调用、组合外部工具及信息,并可完成产业分析、产品对比等各类复杂需求。

“天工 3.0”号称全球首个多模态“超级模型”,集成了 AI 搜索、AI 写作、AI 长文本阅读、AI 对话、AI 语音合成、AI 图片生成、AI 漫画创作、AI 图片识别、AI 音乐生成、AI 代码写作、AI 表格生成等多项能力,官方称其为“大模型时代的超级应用”。

据IT之家此前报道,昆仑万维去年 10 月开源了百亿级大语言模型“天工”Skywork-13B 系列,并配套开源了 600GB、150B Tokens 开源中文数据集。

昆仑万维“天工”Skywork-13B 系列目前包括 130 亿参数的两大模型:Skywork-13B-Base 模型、Skywork-13B-Math 模型,IT之家附开源地址如下:

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

相关文章

软媒旗下网站: IT之家 辣品 - 超值导购,优惠券 最会买 - 返利返现优惠券 iPhone之家 Win7之家 Win10之家 Win11之家

软媒旗下软件: 魔方 云日历 酷点桌面 Win7优化大师 Win10优化大师 软媒手机APP应用