File size: 220 Bytes
0482fc7
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
{
    "step": 6000,
    "lora_params": {
        "lora_rank": 32,
        "lora_alpha": 32,
        "target_modules": [
            "to_k",
            "to_q",
            "to_v",
            "to_out.0"
        ]
    }
}