kazuHF commited on
Commit
632c98d
·
verified ·
1 Parent(s): 675c96f

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +4 -12
README.md CHANGED
@@ -39,18 +39,10 @@ This llama model was trained 2x faster with [Unsloth](https://github.com/unsloth
39
  - 推論による出力のkeyは “task_id”, “input”, “output”
40
 
41
  4. 推論方法
42
- - Hugging FaceのIDとして、
43
-  model_id = "llm-jp/llm-jp-3-13b”, adapter_id = "kazuHF/llm-jp-3-13b-it2_lora"
44
- と指定し、
45
-  FastLanguageModel.from_pretrained( model_id)
46
- で元のモデルをロードする。そして
47
-  model = PeftModel.from_pretrained( … adaptor_id … )
48
- によって元のモデルとLoRAのアダプターを結合し、そのモデルのモードを
49
-  FastLanguageModel.for_inference(model)
50
- によって推論モードに変更する。
51
- 入力を”””###\n 指示 入力 \n### 回答\n”””の形式にしてトークン化し、
52
-  model.generate( “input_ids”: …, “attention_mask”: …, …)
53
- によってpredictionを行い、それをdecodeして出力とする。
54
 
55
  5. ライセンス
56
  - ベースモデル: 国立情報学研究所 大規模言語モデル研究開発センターが公開しているllm-jp/llm-jp-3-13b。Apache 2.0 のライセンスを継承する。
 
39
  - 推論による出力のkeyは “task_id”, “input”, “output”
40
 
41
  4. 推論方法
42
+ - Hugging FaceのIDとして、model_id = "llm-jp/llm-jp-3-13b”, adapter_id = "kazuHF/llm-jp-3-13b-it2_lora" と指定し、FastLanguageModel.from_pretrained( … model_id … )
43
+ で元のモデルをロードする。
44
+ - そして model = PeftModel.from_pretrained( … adaptor_id … )によって元のモデルとLoRAのアダプターを結合し、そのモデルのモードを FastLanguageModel.for_inference(model) によって推論モードに変更する。
45
+ - 入力を”””###\n 指示 入力 \n### 回答\n”””の形式にしてトークン化し、model.generate( “input_ids”: …, “attention_mask”: …, ) によってpredictionを行い、それをdecodeして出力とする。
 
 
 
 
 
 
 
 
46
 
47
  5. ライセンス
48
  - ベースモデル: 国立情報学研究所 大規模言語モデル研究開発センターが公開しているllm-jp/llm-jp-3-13b。Apache 2.0 のライセンスを継承する。