|
@@ -1,11 +1,11 @@
|
|
|
# 模型配置
|
|
|
model_name: "../models/pretrained/DeepSeek-R1-Distill-Qwen-1.5B"
|
|
|
-max_seq_length: 768 # 2048 单次会话的最大 token 长度
|
|
|
+max_seq_length: 512 # 2048 单次会话的最大 token 长度
|
|
|
dtype: "float16" # 数据类型,可选 "float16" 或 "bfloat16"
|
|
|
load_in_4bit: True # 是否以4位精度加载模型
|
|
|
fast_inference: False # Enable vLLM fast inference
|
|
|
lora_rank: 128 # LoRA 的 rank 值 Choose any number>0!suggested 8,16,32,64,128
|
|
|
-gpu_memory_utilization: 0.6 # GPU VRAM 占用率
|
|
|
+gpu_memory_utilization: 0.85 # GPU VRAM 占用率
|
|
|
|
|
|
# 训练配置
|
|
|
use_vllm: False # use vLLM for fast inference!
|