宣开源统一型Ming蚂蚁集团官多模态大模

  • 内容
  • 评论
  • 相关

5月27日 ,蚂蚁模态在蚂蚁技能日上,集团蚂蚁集团旗下的官宣百灵大模型(Ling)团队宣告正式开源一致多模态大模型Ming-lite-omni 。据蚂蚁方面介绍,开源这是统多一款依据Ling-lite构建的MoE架构的全模态模型  ,其总参数22B  ,大模激活参数3B。蚂蚁模态 

蚂蚁集团官宣开源统一多模态大模型Ming-lite-omni

据悉,Ming-lite-omni当时模型权重和推理代码已开源,官宣后续会接连开源练习代码和练习数据 。开源

https://huggingface.co/inclusionAI/Ming-Lite-Omni 。统多

今年以来,大模百灵大模型现已接连开源了多个模型产品 ,蚂蚁模态包含2个MoE架构的集团大言语模型 ,Ling-lite和Ling-plus,官宣多模态大模型Ming-lite-uni ,以及Ming-lite-omni-preview 。

其间,其间五月中旬开源了Ling-lite-1.5 ,据百灵方面介绍 ,“才能现已挨近同水位SOTA水平,介于千问4B和8B的水平 。”蚂蚁方面称,这两个模型在多个算力渠道(包含非Hopper架构的国产算力)进行练习 ,验证了300B尺度的SOTA MoE大言语模型在非高端算力渠道上练习的可行性。

而本次开源的Ming-lite-omni产品在多项了解和生成才能评测中 ,性能与10B量级抢先的多模态大模型适当或更优 。蚂蚁方面以为,这是现在已知首个在模态支撑方面可以与GPT-4o相媲美的开源模型。

百灵大模型负责人西亭对媒体表明 ,百灵大模型的命名规则是Ling代表根底大模型 ,Ring代表推理版别,Ming代表多模态大模型 。百灵在曩昔主要在几个方面做了聚集,一个是很早做MoE架构的探究,坚决的在言语大模型和多模态大模型上面一致使用了MoE的架构  ,一起使用了很多非高端的算力渠道  ,证明了国产GPU的“也能练习出来可比较GPT4o的模型”。其次 ,百灵很注重多模态范畴的探究 ,一直在推动多模态的生成和了解的一致,而本次开源的Ming-lite-omin便是曩昔技能探究的作用。

百灵方面表明 ,团队下一步将继续优化Ming-lite-omni在全模态了解和生成使命上的作用,并提高Ming-lite-omni的多模杂乱推理才能;一起也会练习更大尺度的全模态模型Ming-plus-omni。此外 ,依据西亭泄漏 , 百灵还在准备Ling的Max版别 ,发布节点将会是“寻找跟(deepseek)V3的版别差不多的版别时开出去” 。

((大众号 :)) 。

原创文章 ,未经授权制止转载。概况见转载须知。

蚂蚁集团官宣开源统一多模态大模型Ming-lite-omni

版权声明:如非注明,此文章为本站原创文章,转载请注明: 转载自行咻

本文链接地址:https://o08s.muthqs.cn/news/7d999983.html