Update README.md
Browse files
README.md
CHANGED
@@ -39,18 +39,10 @@ This llama model was trained 2x faster with [Unsloth](https://github.com/unsloth
|
|
39 |
- 推論による出力のkeyは “task_id”, “input”, “output”
|
40 |
|
41 |
4. 推論方法
|
42 |
-
- Hugging FaceのIDとして、
|
43 |
-
|
44 |
-
|
45 |
-
|
46 |
-
で元のモデルをロードする。そして
|
47 |
-
model = PeftModel.from_pretrained( … adaptor_id … )
|
48 |
-
によって元のモデルとLoRAのアダプターを結合し、そのモデルのモードを
|
49 |
-
FastLanguageModel.for_inference(model)
|
50 |
-
によって推論モードに変更する。
|
51 |
-
入力を”””###\n 指示 入力 \n### 回答\n”””の形式にしてトークン化し、
|
52 |
-
model.generate( “input_ids”: …, “attention_mask”: …, …)
|
53 |
-
によってpredictionを行い、それをdecodeして出力とする。
|
54 |
|
55 |
5. ライセンス
|
56 |
- ベースモデル: 国立情報学研究所 大規模言語モデル研究開発センターが公開しているllm-jp/llm-jp-3-13b。Apache 2.0 のライセンスを継承する。
|
|
|
39 |
- 推論による出力のkeyは “task_id”, “input”, “output”
|
40 |
|
41 |
4. 推論方法
|
42 |
+
- Hugging FaceのIDとして、model_id = "llm-jp/llm-jp-3-13b”, adapter_id = "kazuHF/llm-jp-3-13b-it2_lora" と指定し、FastLanguageModel.from_pretrained( … model_id … )
|
43 |
+
で元のモデルをロードする。
|
44 |
+
- そして model = PeftModel.from_pretrained( … adaptor_id … )によって元のモデルとLoRAのアダプターを結合し、そのモデルのモードを FastLanguageModel.for_inference(model) によって推論モードに変更する。
|
45 |
+
- 入力を”””###\n 指示 入力 \n### 回答\n”””の形式にしてトークン化し、model.generate( “input_ids”: …, “attention_mask”: …, …) によってpredictionを行い、それをdecodeして出力とする。
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
46 |
|
47 |
5. ライセンス
|
48 |
- ベースモデル: 国立情報学研究所 大規模言語モデル研究開発センターが公開しているllm-jp/llm-jp-3-13b。Apache 2.0 のライセンスを継承する。
|