llm-jp-3-13b-finetune-22_lora
このモデルは Hugging Face 上で提供されている llm-jp/llm-jp-3-13b をファインチューニングしたモデルです。 主に日本語の指示応答タスク向けに最適化されています。
モデルの概要
- タイプ: Transformer-based Language Model
- トレーニングデータ: LLM-jp の公開している Ichikara Instruction
https://liat-aip.sakura.ne.jp/wp/llmのための日本語インストラクションデータ作成/llmのための日本語インストラクションデータ-公開/
関根聡, 安藤まや, 後藤美知子, 鈴木久美, 河原大輔, 井之上直也, 乾健太郎. ichikara-instruction: LLMのための日本語インストラクションデータの構築. 言語処理学会第30回年次大会(2024) - タスク: elyza_100_tv のベンチマークに対する応答
Uploaded model
- Developed by: takeofuture
- License: apache-2.0
- Finetuned from model : llm-jp/llm-jp-3-13b
This llama model was trained 2x faster with Unsloth and Huggingface's TRL library.