API 参考
SamplingClient
从训练后的模型生成文本的接口
主要方法
Sample
sample(
prompt,
num_samples,
sampling_params,
include_prompt_logprobs=False,
topk_prompt_logprobs=None
)
sample_async(...)从 prompt 生成文本 completion。
参数:
prompt:包含 token 的 ModelInputnum_samples:生成数量sampling_params:控制生成的 SamplingParamsinclude_prompt_logprobs:返回 prompt token 的 logprobstopk_prompt_logprobs:返回每个位置的 top-k 候选 token
返回:包含生成 token 和可选 logprobs 的 Future。
计算 Logprobs
compute_logprobs(prompt)
compute_logprobs_async(prompt)计算 prompt 中 token 的 logprobs,不生成新文本。
使用示例
import mint
from mint import types
service_client = mint.ServiceClient()
sampling_client = service_client.create_sampling_client(
base_model="Qwen/Qwen3-4B-Instruct-2507"
)
# 准备 prompt
tokenizer = ... # 获取 tokenizer
prompt = types.ModelInput.from_ints(
tokenizer.encode("The weather today is")
)
# 配置 sampling
params = types.SamplingParams(
max_tokens=20,
temperature=0.7
)
# 生成
future = sampling_client.sample(
prompt=prompt,
sampling_params=params,
num_samples=1
)
result = future.result()异步使用
future = await sampling_client.sample_async(prompt, params, num_samples=1)
result = await future