takeofuture
commited on
Update README.md
Browse files
README.md
CHANGED
@@ -5,6 +5,14 @@
|
|
5 |
このモデルは [Hugging Face](https://huggingface.co) 上で提供されている llm-jp/llm-jp-3-13b をファインチューニングしたモデルです。
|
6 |
主に日本語の指示応答タスク向けに最適化されています。
|
7 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
8 |
# Uploaded model
|
9 |
|
10 |
- **Developed by:** takeofuture
|
|
|
5 |
このモデルは [Hugging Face](https://huggingface.co) 上で提供されている llm-jp/llm-jp-3-13b をファインチューニングしたモデルです。
|
6 |
主に日本語の指示応答タスク向けに最適化されています。
|
7 |
|
8 |
+
## **モデルの概要**
|
9 |
+
|
10 |
+
- **アーキテクチャ**: GPT-4 など
|
11 |
+
- **トレーニングデータ**: LLM-jp の公開している Ichikara Instruction
|
12 |
+
https://liat-aip.sakura.ne.jp/wp/llmのための日本語インストラクションデータ作成/llmのための日本語インストラクションデータ-公開/
|
13 |
+
関根聡, 安藤まや, 後藤美知子, 鈴木久美, 河原大輔, 井之上直也, 乾健太郎. ichikara-instruction: LLMのための日本語インストラクションデータの構築. 言語処理学会第30回年次大会(2024)
|
14 |
+
- **タスク**: elyza_100_tv のベンチマークに対する応答
|
15 |
+
|
16 |
# Uploaded model
|
17 |
|
18 |
- **Developed by:** takeofuture
|