Supported Models
MinT 服务端的基础模型按访问计划分两个 lineup 池,外加可申请加入 lineup 的技术兼容集合:
- 社区版可用模型 —— 通过
mint.macaron.xin共享托管端点访问,需申请 API key。 - 企业版专属模型 —— 通过企业版套餐在专属集群上预留算力获得。
社区版可用模型
下表里这些模型在 mint-quickstart-alpha 中有显式测试覆盖、有预留算力。如果没有特别偏好,用 lineup 里任意一个跑 smoke run 即可。
| 模型族 | 具体型号 | 脚本默认 | 已测试算法 | 备注 |
|---|---|---|---|---|
| Qwen3 | Qwen/Qwen3-0.6B | 是 | SFT、GRPO | 轻量默认;quickstart、custom_reward、custom_loss、sampling_log 全跑这个。 |
| Qwen3 | Qwen/Qwen3-30B-A3B-Instruct-2507 | 可选 | SFT、GRPO | 中等规模 instruction following。 |
| Qwen3 | Qwen/Qwen3-235B-A22B-Instruct-2507 | 否 | SFT、GRPO | 大规模 instruction tuning。Volcano A800 集群参数:inference_tp=16, train_tp=4, train_pp=1, train_ep=8。 |
| Qwen3 | Qwen/Qwen3-235B-A22B-Thinking-2507 | 否 | SFT、GRPO | 推理 / chain-of-thought。集群形态同 Instruct 版。 |
| OpenPI | mintx.OPENPI_FAST_MODEL(常量) | VLA 默认 | VLA 经 SDK / HTTP | 具身智能体轨道。详见 VLA。 |
要覆盖默认模型,跑 quickstart 脚本前设置 MINT_BASE_MODEL:
export MINT_BASE_MODEL=Qwen/Qwen3-30B-A3B-Instruct-2507
python quickstart/quickstart.py企业版专属模型
下列模型需要 企业版套餐。算力按客户专属集群预留,不在社区版的共享端点上提供。HuggingFace 规范化 ID 在开通时确认。
| 模型族 | 具体型号 | 已测试算法 | 备注 |
|---|---|---|---|
| GLM | GLM-5 | SFT、RL | 智谱 GLM-5 家族。客户专属集群按需开通。 |
| GLM | GLM-5.1 | SFT、RL | GLM-5 后继版本;按客户预留算力。 |
| Kimi | Kimi-K2 | SFT、RL | Moonshot Kimi-K2。长上下文工作负载。 |
| Kimi | Kimi-K2.5 | SFT、RL | Kimi-K2 后继版本。 |
| DeepSeek | DeepSeek-V3 | SFT、RL | DeepSeek V3 基础模型。 |
需要为以上任意一个预留算力,请发邮件到 sales@mindlab.ltd 或 Schedule a Demo,注明模型与工作负载类型。
Technically Compatible
MinT 服务端接受任何符合 HuggingFace Hub 风格、且架构属于下面列出的 transformer 家族的 model 字符串。Lineup 是已显式测试的子集。理论上可工作的其它 model 家族包括:
- Qwen 系列(Qwen2.5、Qwen3 —— Instruct、Thinking、Coder 变体)
- Llama 3.x 家族
- Gemma 2.x 和 3.x
- DeepSeek 家族
仓库里目前没有这些模型在 MinT 上端到端跑通的证据。如果你需要其中一个进入 lineup 并预留算力,按下面的方式申请。
Request a Model
如果你需要的模型不在列表里:
- 发邮件到
sales@mindlab.ltd,写明模型标识和预计用法(SFT / DPO / RL、batch size、预计使用周数)。 - 或者在公共
mint-quickstart仓库开 issue:github.com/MindLab-Research/mint-quickstart/issues。
VLM(Vision-Language Model)基础模型按"服务端能力"单独追踪 —— 详见 VLM 页的当前状态。
如何知道你的 endpoint 实际服务哪些模型? preflight 成功后会返回一个 capabilities.supported_models 列表。quickstart.py 默认会打印 Auth preflight: OK (N supported models) —— 在你自己的脚本里调 service_client.get_server_capabilities() 即可枚举。