高级主题检查点
保存 Checkpoint
这一页对应 mint-quickstart 中的 advanced/checkpoint.py save。
这个命令会做什么
- 创建一个新的 LoRA training client
- 用
cross_entropy跑 1 个最小 SFT step - 通过
save_state(...)保存完整训练状态 checkpoint - 通过
save_weights_for_sampler(...)保存 sampler-only checkpoint - 打印两个 server-side checkpoint 路径,供后续下载或恢复训练使用
运行前准备
- 先完成 Getting Started
- 配置
MINT_API_KEY - 如需指定区域域名,再设置
MINT_BASE_URL
按所在区域选择 MinT 域名:
- 境内:
https://mint-cn.macaron.xin/ - 境外:
https://mint.macaron.xin/
命令
export MINT_API_KEY=sk-...
python advanced/checkpoint.py save --name my-ckpt可选参数:
--model:默认MINT_BASE_MODEL或Qwen/Qwen3-0.6B--rank:默认MINT_LORA_RANK或16--lr:默认MINT_RL_LR或5e-5
核心 API
state_ckpt = training_client.save_state(name=f"{name}-state").result()
sampler_ckpt = training_client.save_weights_for_sampler(name=f"{name}-sampler").result()save_state(...) 会保留 weights 和 optimizer state,适合后续继续训练。save_weights_for_sampler(...) 则生成仅含权重的 checkpoint,适合推理或导出。
预期输出
[save] model=Qwen/Qwen3-0.6B rank=16 lr=5e-05 name=my-ckpt
[save] running forward_backward (1 datum, cross_entropy)...
[save] step done
[save] state (weights+optimizer): tinker://.../weights/my-ckpt-state
[save] sampler (weights only): tinker://.../sampler_weights/my-ckpt-sampler当前 SDK 常会直接打印 tinker://... 路径;配套的 download / resume 命令都能直接接受这类原始输出。