会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 AI公司MosaicML推出70亿参数模子MPT!

AI公司MosaicML推出70亿参数模子MPT

时间:2025-03-11 09:41:32 来源:Juliet Harold网 作者:娱乐 阅读:761次

AI 守业公司 MosaicML 克日宣告了其 70 亿参数模子 MPT-7B-8K ,公司据悉  ,推出该模子一次可能处置 8000 字文本,亿参至关长于从事长文重点摘要以及问答 ,数模还能在 MosaicML 平台上凭证特界说务 ,公司进一步微调相关配置装备部署 。推出

据悉,亿参系列模子接管了 150 万个 Token,数模并以 256 块 H100 GPU 花 3 天实现模子磨炼而成 。公司MosaicML 本次宣告了 3 个版本模子,推出搜罗 MPT-7B-8k、亿参MPT-7B-8k-Instruct 以及 MPT-7B-8k-Chat。数模

其中,公司第一个版本 MPT-7B-8k 、推出因此 Transformer 解码器为根基,亿参并以 FlashAttention 以及 FasterTransformer 机制来减速磨炼与推论 ,能一次处置 8000 字文本  ,MosaicML 公司展现 ,该模子开源、应承商用。

第二个版本 MPT-7B-8k-Instruct 因此第一个版本 MPT-7B-8k 微调而成 ,MosaicML 公司展现,MPT-7B-8k-Instruct 模子可处置长篇指令 ,特意看重于天生“摘要以及问答”,该模子同样开源且可商用。

第三个版本 MPT-7B-8k-Chat 则是机械人对于话式的 AI 模子 ,MosaicML 公司宣称,该模子格外多用了 15 亿个谈天数据 Token,在第一版模子 MPT-7B-8k 之上不断磨炼而成 ,该模子开源 ,但不应承商用 。

据此前报道,MosaicML 公司也推出了一款号称磨炼老本仅为竞品零头的 MPT-30B 开源模子,该公司日前已经将所有开源模子宣告于 Huggingface 平台,感兴趣的小过错们可从前往妨碍相关清晰 ,还可能在当地硬件上运用自己的数据,不才载后 ,对于模子妨碍种种微调 。

(责任编辑:时尚)

最新内容
推荐内容
  • 英超曼彻斯特德比 曼城三球完胜曼联杨幂身材比例优越!一袭露肩裙蛮腰如玉带,长腿吸睛令人惊艳
  • 北京顶奢旅馆幕后老板身家33亿,为银泰系元老
  • 不是哈登,快船B妄想出炉!规画史诗级生意,四巨头坚持太阳
  • 港股公告掘金|7月交付20462台创新高 带动高端纯电市场爆发北大吴谢宇弑母案再爆惊人细节,搜出大量性爱工具,真相一再反转
  • 国米大胜重返榜首,AC米兰客场落败
  • ChatGPT羊驼家族全失守,CMU博士击破LLM护栏,人类扑灭妄想脱口而出