100万token超长上下文、53.5万美元超低训练成本、猫跳水都能翻腾三周半——这一切让上海AI公司MiniMax在发布M1开源模型的当天,就冲到了全球开源榜单第二的位置。
为什么是M1?三大关键词:MoE、线性注意力、CISPO
- 混合专家架构(MoE)
MiniMax去年就已把主流“稠密”架构换成更省算力的MoE。简单来说,MoE让模型只调用“最擅长回答当前问题的专家子网络”,效率提升显著。 - 线性注意力
传统注意力中,输入越长,算力需求呈平方级暴增;线性注意力却能让算力呈线性增长,极大缓解“写超长剧本就卡死”的尴尬。
👉 0元试用真·超长上下文生成,直接体验1M token极限场景! - 自创强化学习算法:CISPO
CISPO在长推理链里精准保留关键节点,并使得M1仅需53.5万美元便可完成强化学习——仅为预估成本的十分之一。
Hailuo 02把“不可能三角”揉碎:效果、速度、成本全都要
| 关键点 | 过去行业痛点 | Hailuo 02答卷 |
|---|---|---|
| 时长 | 主流模型最多5秒连贯动作 | 直出10秒+,保持逻辑完整 |
| 运动难度 | 猫跳台、体操易“翻车” | 猫完成三周半翻转,零丢帧 |
| 效率 | “效果越好训练越久” | 训练数据×4,推理效率反增2.5倍 |
| 价格 | Runway/可灵1美元起步 | Hailuo 02官方价格行业底价 |
为了让高动态动作真正“电影级”,MiniMax内部直接组建了导演+编剧+算法工程师的混编团队,反复纠正肢体扭曲、光影穿帮;最终把“动物奥运会”做成AI视频新品类,上线仅一周就收割3亿流量。
MiniMax修行史:在百模大战中“逆天改命”
- 2023Q3 同行押注应用时,MiniMax继续死磕基座模型,用MoE架构跑通国内首条大规模商用路线。
- 2024Q1 DeepSeek验证MoE是“真香”,MiniMax却已把线性注意力塞进去再提升一次效率。
- 2024Q2 开源M1,把全球第二+超低训练成本的帽子直接戴上。
创始人闫俊杰坦言:“每年能力必须提升10倍,才能留在牌桌上。”在上海最新版“模塑申城”方案中,MiniMax与商汤、阶跃星辰并称“上海队”四大基座,政府下场支持算力、数据、场景三重加码——这也解释了它为何敢于「逆行」。
FAQ:三句话看懂MiniMax到底牛在哪
Q1:MiniMax-M1的开源协议是什么?能商用吗?
A:MIT许可证,可自由商用,只需保留版权声明即可。
Q2:猫跳水视频刷屏之后,个人创作者怎么低成本复现?
A:前往Hailuo AI官网申请API,新人免费额度足够生成50条10秒视频;再大流量也仅需¥0.2/秒,比传统剪辑人力成本更低。
Q3:100万token到底能干嘛?
A:一次塞下《三体》英文原著+角色表+梗概,再让它给你写一部前传,首尾呼应,零割裂。
Q4:Hailuo 02出口海外市场会受限吗?
A:目前支持200+国家和地区,无需额外备案,港澳台同样开放。
留在牌桌上的秘密:技术、商业双循环
业内普遍把“模型能力每年×10”视作生死线。MiniMax已用以下组合验证这条公式:
- 技术:MoE+线性注意力+CISPO持续降低成本边界。
- 商业:开放平台5万企业客户、3.7亿条视频;续费率达80%,现金流健康。
👉 他们都已把下一代剧本、广告、IP交给AI,下一位为什么不是你?
小尾巴
在全球开源榜第二之后,MiniMax的下一站是“多模态超级智能体”。它到底会把猫跳水的神级动作搬到哪个场景?想抢前排体验的开发者记得盯紧官方GitHub更新,下一次“周三钉钉无提醒推送”也许就是M2的横空出世。