Mind Lab Toolkit (MinT)
使用指南

保存与加载

这一页只覆盖 MinT 底层 checkpoint 原语。若你需要端到端操作工作流,请直接查看专门的 Advanced Checkpoint 页面。

为推理保存权重

sampler_path = training_client.save_weights_for_sampler(name="0000").result().path

当你只需要用于 sampling 或导出的权重 checkpoint 时,使用这个接口。

为恢复训练保存状态

resume_path = training_client.save_state(name="0010").result().path

当你需要同时保留 weights 和 optimizer state 时,使用这个接口。

完整续训加载

如果要保留 optimizer state,需要先创建一个新的、形状一致的 LoRA training client,然后调用 load_state_with_optimizer(...)

training_client = service_client.create_lora_training_client(
    base_model=model,
    rank=rank,
    train_mlp=True,
    train_attn=True,
    train_unembed=True,
)
training_client.load_state_with_optimizer(resume_path).result()

仅加载 weights

training_client.load_state(resume_path).result()

load_state(...) 只恢复 weights,不保留 optimizer state。所以不要把它当成完整续训路径。

相关进阶工作流

本页目录