Mind Lab Toolkit (MinT)
高级主题检查点

保存 Checkpoint

这一页对应 mint-quickstart 中的 advanced/checkpoint.py save

这个命令会做什么

  • 创建一个新的 LoRA training client
  • cross_entropy 跑 1 个最小 SFT step
  • 通过 save_state(...) 保存完整训练状态 checkpoint
  • 通过 save_weights_for_sampler(...) 保存 sampler-only checkpoint
  • 打印两个 server-side checkpoint 路径,供后续下载或恢复训练使用

运行前准备

  • 先完成 Getting Started
  • 配置 MINT_API_KEY
  • 如需指定区域域名,再设置 MINT_BASE_URL

按所在区域选择 MinT 域名:

  • 境内:https://mint-cn.macaron.xin/
  • 境外:https://mint.macaron.xin/

命令

export MINT_API_KEY=sk-...
python advanced/checkpoint.py save --name my-ckpt

可选参数:

  • --model:默认 MINT_BASE_MODELQwen/Qwen3-0.6B
  • --rank:默认 MINT_LORA_RANK16
  • --lr:默认 MINT_RL_LR5e-5

核心 API

state_ckpt = training_client.save_state(name=f"{name}-state").result()
sampler_ckpt = training_client.save_weights_for_sampler(name=f"{name}-sampler").result()

save_state(...) 会保留 weights 和 optimizer state,适合后续继续训练。save_weights_for_sampler(...) 则生成仅含权重的 checkpoint,适合推理或导出。

预期输出

[save] model=Qwen/Qwen3-0.6B rank=16 lr=5e-05 name=my-ckpt
[save] running forward_backward (1 datum, cross_entropy)...
[save] step done
[save] state (weights+optimizer): tinker://.../weights/my-ckpt-state
[save] sampler (weights only):    tinker://.../sampler_weights/my-ckpt-sampler

当前 SDK 常会直接打印 tinker://... 路径;配套的 download / resume 命令都能直接接受这类原始输出。

下一步

  • 下载 checkpoint 归档:Download
  • 将本地归档重新上传回 MinT:Upload
  • 从保存的状态继续训练:Resume

本页目录