使用指南
保存与加载
这一页只覆盖 MinT 底层 checkpoint 原语。若你需要端到端操作工作流,请直接查看专门的 Advanced Checkpoint 页面。
为推理保存权重
sampler_path = training_client.save_weights_for_sampler(name="0000").result().path当你只需要用于 sampling 或导出的权重 checkpoint 时,使用这个接口。
为恢复训练保存状态
resume_path = training_client.save_state(name="0010").result().path当你需要同时保留 weights 和 optimizer state 时,使用这个接口。
完整续训加载
如果要保留 optimizer state,需要先创建一个新的、形状一致的 LoRA training client,然后调用 load_state_with_optimizer(...):
training_client = service_client.create_lora_training_client(
base_model=model,
rank=rank,
train_mlp=True,
train_attn=True,
train_unembed=True,
)
training_client.load_state_with_optimizer(resume_path).result()仅加载 weights
training_client.load_state(resume_path).result()load_state(...) 只恢复 weights,不保留 optimizer state。所以不要把它当成完整续训路径。