Mind Lab Toolkit (MinT)
Get started

Supported Models

MinT 服务端的基础模型按访问计划分两个 lineup 池,外加可申请加入 lineup 的技术兼容集合:

  • 社区版可用模型 —— 通过 mint.macaron.xin 共享托管端点访问,需申请 API key。
  • 企业版专属模型 —— 通过企业版套餐在专属集群上预留算力获得。

社区版可用模型

下表里这些模型在 mint-quickstart-alpha 中有显式测试覆盖、有预留算力。如果没有特别偏好,用 lineup 里任意一个跑 smoke run 即可。

模型族具体型号脚本默认已测试算法备注
Qwen3Qwen/Qwen3-0.6BSFT、GRPO轻量默认;quickstart、custom_reward、custom_loss、sampling_log 全跑这个。
Qwen3Qwen/Qwen3-30B-A3B-Instruct-2507可选SFT、GRPO中等规模 instruction following。
Qwen3Qwen/Qwen3-235B-A22B-Instruct-2507SFT、GRPO大规模 instruction tuning。Volcano A800 集群参数:inference_tp=16, train_tp=4, train_pp=1, train_ep=8
Qwen3Qwen/Qwen3-235B-A22B-Thinking-2507SFT、GRPO推理 / chain-of-thought。集群形态同 Instruct 版。
OpenPImintx.OPENPI_FAST_MODEL(常量)VLA 默认VLA 经 SDK / HTTP具身智能体轨道。详见 VLA

要覆盖默认模型,跑 quickstart 脚本前设置 MINT_BASE_MODEL

export MINT_BASE_MODEL=Qwen/Qwen3-30B-A3B-Instruct-2507
python quickstart/quickstart.py

企业版专属模型

下列模型需要 企业版套餐。算力按客户专属集群预留,不在社区版的共享端点上提供。HuggingFace 规范化 ID 在开通时确认。

模型族具体型号已测试算法备注
GLMGLM-5SFT、RL智谱 GLM-5 家族。客户专属集群按需开通。
GLMGLM-5.1SFT、RLGLM-5 后继版本;按客户预留算力。
KimiKimi-K2SFT、RLMoonshot Kimi-K2。长上下文工作负载。
KimiKimi-K2.5SFT、RLKimi-K2 后继版本。
DeepSeekDeepSeek-V3SFT、RLDeepSeek V3 基础模型。

需要为以上任意一个预留算力,请发邮件到 sales@mindlab.ltdSchedule a Demo,注明模型与工作负载类型。

Technically Compatible

MinT 服务端接受任何符合 HuggingFace Hub 风格、且架构属于下面列出的 transformer 家族的 model 字符串。Lineup 是已显式测试的子集。理论上可工作的其它 model 家族包括:

  • Qwen 系列(Qwen2.5、Qwen3 —— Instruct、Thinking、Coder 变体)
  • Llama 3.x 家族
  • Gemma 2.x 和 3.x
  • DeepSeek 家族

仓库里目前没有这些模型在 MinT 上端到端跑通的证据。如果你需要其中一个进入 lineup 并预留算力,按下面的方式申请。

Request a Model

如果你需要的模型不在列表里:

VLM(Vision-Language Model)基础模型按"服务端能力"单独追踪 —— 详见 VLM 页的当前状态。

如何知道你的 endpoint 实际服务哪些模型? preflight 成功后会返回一个 capabilities.supported_models 列表。quickstart.py 默认会打印 Auth preflight: OK (N supported models) —— 在你自己的脚本里调 service_client.get_server_capabilities() 即可枚举。

本页目录