File size: 2,850 Bytes
bc8587e 91862c0 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 |
# Fine-Tuned Model: llm-jp-3-13b-it
# モデル概要
本モデルは、llm-jp/llm-jp-3-13bをベースモデルとし、LoRA方式を用いてファインチューニングを実施しました。日本語データセットを活用し、日本語に特化した自然言語処理タスクに対応できるよう最適化されています。特に、テキスト生成や質問応答、指示追従タスクにおいて高い性能を発揮します。
# 特徴
ベースモデル: llm-jp/llm-jp-3-13b
学習方式: LoRAアダプターを使用
量子化: 4-bit量子化を適用
最大シーケンス長: 512トークン
# 主な用途
テキスト生成: 高品質な日本語の生成
質問応答: 指示追従型の応答生成
カスタムタスク: 特定用途における自然な会話生成
# モデルの読み込みと使用
以下のコードを使用してモデルをロードできます。
from unsloth import FastLanguageModel
import torch
# モデル設定
model_id = "llm-jp-3-13b-it" # Fine-TunedモデルID
load_in_4bit = True # 4-bit量子化
max_seq_length = 512
# モデルとトークナイザーのロード
model, tokenizer = FastLanguageModel.from_pretrained(
model_name=model_id,
dtype=None,
load_in_4bit=load_in_4bit,
trust_remote_code=True,
)
# テキスト生成例
input_text = "生成AIの可能性について説明してください。"
inputs = tokenizer(input_text, return_tensors="pt").to("cuda")
outputs = model.generate(**inputs, max_new_tokens=256)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
# トレーニング詳細
フレームワーク: Hugging Face Transformers
# 設定
エポック数: 未記載
バッチサイズ: 1(勾配累積を使用)
学習率: 5e-5
LoRAパラメータ: r=32, alpha=32, dropout=0.05
量子化方式: 4-bit
その他: 勾配チェックポイントやRoPEをサポート
# 必要なライブラリ
以下をインストールしてください。
pip install unsloth
pip install torch xformers
# パフォーマンス
本モデルは以下のタスクで高い性能を発揮します。
テキスト生成
質問応答
会話応答生成
# ライセンス
ベースモデル: Apache 2.0
本モデル: Apache 2.0
# 注意事項
本モデルは研究・教育目的で提供されています。商用利用を行う場合は、関連するライセンス条件を遵守してください。
モデルの出力内容に関する責任は利用者が負うものとします。
base_model: llm-jp/llm-jp-3-13b
tags:
- text-generation-inference
- transformers
- unsloth
- llama
- trl
license: apache-2.0
language:
- en
Uploaded model
Developed by: kakerukc0506
License: apache-2.0
Finetuned from model : llm-jp/llm-jp-3-13b
This llama model was trained 2x faster with Unsloth and Huggingface's TRL library. |