kakerukc0506 commited on
Commit
bc8587e
·
verified ·
1 Parent(s): fa5c8e0

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +71 -22
README.md CHANGED
@@ -1,22 +1,71 @@
1
- ---
2
- base_model: llm-jp/llm-jp-3-13b
3
- tags:
4
- - text-generation-inference
5
- - transformers
6
- - unsloth
7
- - llama
8
- - trl
9
- license: apache-2.0
10
- language:
11
- - en
12
- ---
13
-
14
- # Uploaded model
15
-
16
- - **Developed by:** kakerukc0506
17
- - **License:** apache-2.0
18
- - **Finetuned from model :** llm-jp/llm-jp-3-13b
19
-
20
- This llama model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
21
-
22
- [<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # Fine-Tuned Model: llm-jp-3-13b-it
2
+
3
+ # モデル概要
4
+ 本モデルは、llm-jp/llm-jp-3-13bをベースモデルとし、LoRA方式を用いてファインチューニングを実施しました。日本語データセットを活用し、日本語に特化した自然言語処理タスクに対応できるよう最適化されています。特に、テキスト生成や質問応答、指示追従タスクにおいて高い性能を発揮します。
5
+
6
+ # 特徴
7
+ ベースモデル: llm-jp/llm-jp-3-13b
8
+ 学習方式: LoRAアダプターを使用
9
+ 量子化: 4-bit量子化を適用
10
+ 最大シーケンス長: 512トークン
11
+
12
+ # 主な用途
13
+ テキスト生成: 高品質な日本語の生成
14
+ 質問応答: 指示追従型の応答生成
15
+ カスタムタスク: 特定用途における自然な会話生成
16
+
17
+ # モデルの読み込みと使用
18
+ 以下のコードを使用してモデルをロードできます。
19
+
20
+ from unsloth import FastLanguageModel
21
+ import torch
22
+
23
+ # モデル設定
24
+ model_id = "llm-jp-3-13b-it" # Fine-TunedモデルID
25
+ load_in_4bit = True # 4-bit量子化
26
+ max_seq_length = 512
27
+
28
+ # モデルとトークナイザーのロード
29
+ model, tokenizer = FastLanguageModel.from_pretrained(
30
+ model_name=model_id,
31
+ dtype=None,
32
+ load_in_4bit=load_in_4bit,
33
+ trust_remote_code=True,
34
+ )
35
+
36
+ # テキスト生成例
37
+ input_text = "生成AIの可能性について説明してください。"
38
+ inputs = tokenizer(input_text, return_tensors="pt").to("cuda")
39
+ outputs = model.generate(**inputs, max_new_tokens=256)
40
+ print(tokenizer.decode(outputs[0], skip_special_tokens=True))
41
+
42
+ # トレーニング詳細
43
+ フレームワーク: Hugging Face Transformers
44
+
45
+ # 設定
46
+ エポック数: 未記載
47
+ バッチサイズ: 1(勾配累積を使用)
48
+ 学習率: 5e-5
49
+ LoRAパラメータ: r=32, alpha=32, dropout=0.05
50
+ 量子化方式: 4-bit
51
+ その他: 勾配チェックポイントやRoPEをサポート
52
+
53
+ # 必要なライブラリ
54
+ 以下をインストールしてください。
55
+
56
+ pip install unsloth
57
+ pip install torch xformers
58
+
59
+ # パフォーマンス
60
+ 本モデルは以下のタスクで高い性能を発揮します。
61
+ テキスト生成
62
+ 質問応答
63
+ 会話応答生成
64
+
65
+ # ライセンス
66
+ ベースモデル: Apache 2.0
67
+ 本モデル: Apache 2.0
68
+
69
+ # 注意事項
70
+ 本モデルは研究・教育目的で提供されています。商用利用を行う場合は、関連するライセンス条件を遵守してください。
71
+ モデルの出力内容に関する責任は利用者が負うものとします。