 MiniMax发布新款开源大模型,最强M支称其性价比优于DeepSeek 。性价下文 6月17日,开源国内大模型独角兽MiniMax发布世界上榜首个开源的推理大规模混合架构的推理模型MiniMax-M1,这也是模型“MiniMaxWeek”系列发布活动的首个对外发布
。 据MiniMax介绍,撑最M1在面向生产力的高百杂乱场景中才能是开源模型中的最好一档
,逾越国内的输入闭源模型
,挨近海外的最强M支最抢先模型
,一起又有业界最高的性价下文性价比
。 MiniMax发表,开源M1的推理优势是支撑现在业界最高的100万上下文的输入,和闭源模型里边的模型GoogleGemini2.5Pro相同
,是撑最DeepSeekR1的8倍,以及业界最长的高百8万Token推理输出。 此次MiniMaxM1的最大优势之一体现在本钱上
。依据M1大模型剖析本身的技术优势显现,MiniMaxM1选用低本钱练习,仅用512块H800GPU三周时刻,本钱53.47万美元(约385万元) 。 MiniMax称,得益于以闪电注意力机制为主的混合架构,从而在核算长的上下文输入以及深度推理的时分显着高效。依据归纳 ,在生成长度为10万tokens的场景下 ,MiniMax-M1的核算量(FLOPs)为DeepSeekR1的25% ,在长文本处理使命中具有显着优势。 据M1的剖析表明,MiniMaxM1的中心优势在于超长上下文处理才能和极低的算力耗费,一起在杂乱使命(如东西调用、长文本了解)中体现挨近乃至逾越DeepSeekR1
,供给更灵敏的API定价战略,特别合适需求处理百万级token的场景(如法令文档剖析、代码库了解)
。DeepSeekR1则在传统数学推理和编程基准测验中略占优势,但受限于上下文长度和核算功率,在长文本使命中显着落后M1 。 价格方面
,M1在MiniMaxAPP和Web上支撑不定量免费运用
。在API方面
,榜首档0-32k的输入长度时,输入0.8元/百万token
,输出8元/百万token;第二档32k-128k的输入长度时,输入1.2元/百万token ,输出16元/百万token;第三档128k-1M输入长度时,输入2.4元/百万token,输出24元/百万token。 
值得注意的是,DeepSeek已成为大模型厂商对标的“风向标”。此前字节跳动旗下火山引擎最新发布豆包大模型1.6 ,创始按“输入长度”区间定价
,深度考虑、多模态才能与根底言语模型一致价格,称其归纳本钱只要DeepSeekR1三分之一,每生成一条5秒的1080P视频只需3.67元,为职业最低
|