API 参考
参数和类型
MinT API 中使用的核心数据类型
AdamParams
Adam optimizer 配置。
字段:
| 字段 | 类型 | 默认值 | 说明 |
|---|---|---|---|
learning_rate | float | 0.0001 | 参数更新步长 |
beta1 | float | 0.9 | 一阶矩估计的指数衰减率 |
beta2 | float | 0.95 | 二阶矩估计的指数衰减率 |
eps | float | 1e-12 | 数值稳定性常数 |
示例:
from mint import types
training_client.optim_step(
types.AdamParams(learning_rate=1e-4, beta1=0.9, beta2=0.95)
).result()ModelInput
表示 tokenize 后的模型输入。
方法:
from_ints(tokens):从 token ID 列表创建to_ints():转换为 token ID 列表context_length():获取总 token 数append_tokens(tokens):末尾添加 tokenappend_chunks(chunks):添加文本 chunk
支持:
- 纯文本(token ID 列表)
SamplingParams
控制文本生成行为。
字段:
| 字段 | 类型 | 默认值 | 说明 |
|---|---|---|---|
max_tokens | int | 必填 | 最大生成 token 数 |
temperature | float | 1.0 | 随机性(0.0 = 确定性,越高越随机) |
top_k | int | -1 | 仅考虑 top-k 个 token(-1 = 禁用) |
top_p | float | 1.0 | nucleus sampling 阈值 |
seed | int | None | 随机种子,用于可复现 |
stop | list | None | 停止序列(字符串或 token ID) |
stop_token_ids | list | None | 停止生成的 token ID |
示例:
from mint import types
result = sampling_client.sample(
prompt=types.ModelInput.from_ints(tokens),
num_samples=4,
sampling_params=types.SamplingParams(
max_tokens=100,
temperature=0.8,
top_p=0.95,
stop_token_ids=[tokenizer.eos_token_id]
)
).result()LoraConfig
LoRA 配置。
字段:
| 字段 | 类型 | 默认值 | 说明 |
|---|---|---|---|
rank | int | 32 | 低秩矩阵的 rank 维度(最大: 64) |
seed | int | None | 初始化种子 |
train_unembed | bool | true | 训练 unembedding 层 |
train_mlp | bool | true | 训练 MLP 层 |
train_attn | bool | true | 训练 attention 层 |
示例:
training_client = service_client.create_lora_training_client(
base_model="Qwen/Qwen3-0.6B",
rank=16,
train_mlp=True,
train_attn=True,
train_unembed=True
)Checkpoint
表示已保存的模型 checkpoint。
字段:
id:唯一标识符type:"training" 或 "sampler"timestamp:创建时间size:文件大小(字节)public:是否公开
TensorData
带转换工具的 tensor 数据包装器。
方法:
to_numpy():转换为 NumPy 数组to_torch():转换为 PyTorch tensorshape:获取 tensor 维度
TrainingRun
Training session 的元数据。
字段:
id:唯一标识符base_model:使用的基座模型owner:创建者corrupted:是否遇到错误checkpoints:已保存的 checkpoint 列表created_at:时间戳