evilfreelancer commited on
Commit
5abfe2f
·
verified ·
1 Parent(s): 4766b89

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +101 -3
README.md CHANGED
@@ -1,3 +1,101 @@
1
- ---
2
- license: mit
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: mit
3
+ datasets:
4
+ - Egor-AI/Russian_thinking_dataset
5
+ language:
6
+ - ru
7
+ - en
8
+ base_model:
9
+ - t-tech/T-lite-it-1.0
10
+ pipeline_tag: question-answering
11
+ library_name: peft
12
+ tags:
13
+ - cot
14
+ - thinking
15
+ - reflection
16
+ - o1
17
+ ---
18
+
19
+ # Russian o1 / T-lite-it-1.0 GGUF
20
+
21
+ https://huggingface.co/evilfreelancer/o1_t-lite-it-1.0_lora
22
+
23
+ LoRA-адаптер для модели [T-lite-it-1.0](https://huggingface.co/t-tech/T-lite-it-1.0) обученный на
24
+ датасете [Egor-AI/Russian_thinking_dataset](https://huggingface.co/datasets/Egor-AI/Russian_thinking_dataset) (машинный
25
+ перевод на русский язык
26
+ датасета [BintangFortuna/OpenO1-SFT-EN-SY](https://huggingface.co/datasets/BintangFortuna/OpenO1-SFT-EN-SY)).
27
+
28
+ Обученная модель способна имитировать логические размышлению на русском языке по аналогии с тем, как
29
+ это делает `o1` от `OpenAI`.
30
+
31
+ Необходимо использовать следующего вида системный промт:
32
+
33
+ ```
34
+ Вы — ИИ-помощник. Отформатируйте свои ответы следующим образом: <Thought> Ваши мысли (понимание, рассуждения) </Thought> <output> Ваш ответ </output>
35
+ ```
36
+
37
+ W&B отчёт: https://api.wandb.ai/links/evilfreelancer/fd7kpwjx
38
+
39
+ Обучение производилось при помощи утилиты [impruver](https://github.com/EvilFreelancer/impruver) используя конфигурацию
40
+ [T-lite-it/7B_lora_thinking](https://github.com/EvilFreelancer/impruver/blob/main/recipes/configs/T-lite-it/7B_lora_thinking.yaml).
41
+
42
+ На всё про всё ушло примерно 20 часов, при этом понадобилось 23Гб видеопамяти.
43
+
44
+ ```yaml
45
+ output_dir: ./models/T-lite-it_7B_lora_thinking
46
+ train_path: ./train.T-lite-it_7B_lora_thinking.jsonl
47
+ val_path: ./val.T-lite-it_7B_lora_thinking.jsonl
48
+
49
+ datasets:
50
+ - name: Egor-AI/Russian_thinking_dataset
51
+ converter: impruver.instruction_to_messages
52
+ add_global_bos: false
53
+ add_global_eos: false
54
+ mapping:
55
+ system: system
56
+ instruction: prompt
57
+ output: response
58
+
59
+ model:
60
+ class: transformers.AutoModelForCausalLM
61
+ name: t-tech/T-lite-it-1.0
62
+ load_in_4bit: true
63
+ load_in_8bit: false
64
+ dtype: bf16
65
+
66
+ lora:
67
+ r: 16
68
+ lora_alpha: 16
69
+ lora_dropout: 0
70
+ bias: none
71
+ target_modules: [ q_proj, k_proj, v_proj, o_proj, gate_proj, down_proj, up_proj ]
72
+ task_type: CAUSAL_LM
73
+
74
+ tokenizer:
75
+ class: transformers.AutoTokenizer
76
+ name: t-tech/T-lite-it-1.0
77
+ max_tokens_count: 1500
78
+
79
+ trainer:
80
+ eval_strategy: steps
81
+ save_strategy: steps
82
+ eval_steps: 100
83
+ save_steps: 100
84
+ per_device_train_batch_size: 1
85
+ per_device_eval_batch_size: 1
86
+ gradient_accumulation_steps: 8
87
+ logging_steps: 10
88
+ learning_rate: 0.0004
89
+ num_train_epochs: 3
90
+ lr_scheduler_type: cosine
91
+ warmup_steps: 16
92
+ optim: adamw_torch_4bit
93
+ metric_for_best_model: eval_loss
94
+ load_best_model_at_end: true
95
+ save_total_limit: 2
96
+ seed: 42
97
+ remove_unused_columns: false
98
+ max_grad_norm: 1.0
99
+ weight_decay: 0.08
100
+ torch_compile: false
101
+ ```