Update README.md
Browse files
README.md
CHANGED
@@ -1,19 +1,30 @@
|
|
1 |
---
|
2 |
-
|
3 |
-
|
|
|
|
|
|
|
|
|
|
|
4 |
---
|
5 |
-
本コードはunslothで学習したqLoRAのアダプタを用いてELYZA-tasks-100-TVの出力を得るためのコードです。<br>
|
6 |
-
松尾研大規模言語モデル講座2024のコンペ用の提出モデル作成の一環として作成・公開しています。<br>
|
7 |
-
このコードはunslothライブラリを用いてモデルを読み込み、推論するためのコードとなります。
|
8 |
|
9 |
-
#
|
|
|
|
|
10 |
|
11 |
- **Developed by:** tokushi
|
12 |
-
- **
|
13 |
-
- **
|
|
|
|
|
14 |
|
15 |
This llama model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
|
16 |
|
|
|
|
|
|
|
|
|
|
|
17 |
# 前提条件
|
18 |
|
19 |
Python環境があること(例: Google Colab)<br>
|
|
|
1 |
---
|
2 |
+
language:
|
3 |
+
- ja
|
4 |
+
tags:
|
5 |
+
- japanese
|
6 |
+
- lora
|
7 |
+
license: apache-2.0
|
8 |
+
base_model: llm-jp/llm-jp-3-13b
|
9 |
---
|
|
|
|
|
|
|
10 |
|
11 |
+
# llm-jp-3-13b-it_lora
|
12 |
+
|
13 |
+
## Model Details
|
14 |
|
15 |
- **Developed by:** tokushi
|
16 |
+
- **Model type:** Language Model with LoRA fine-tuning
|
17 |
+
- **Language(s):** Japanese
|
18 |
+
- **License:** Apache 2.0
|
19 |
+
- **Finetuned from model:** llm-jp/llm-jp-3-13b
|
20 |
|
21 |
This llama model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
|
22 |
|
23 |
+
## Usage
|
24 |
+
本コードはunslothで学習したqLoRAのアダプタを用いてELYZA-tasks-100-TVの出力を得るためのコードです。<br>
|
25 |
+
松尾研大規模言語モデル講座2024のコンペ用の提出モデル作成の一環として作成・公開しています。<br>
|
26 |
+
このコードはunslothライブラリを用いてモデルを読み込み、推論するためのコードとなります。
|
27 |
+
|
28 |
# 前提条件
|
29 |
|
30 |
Python環境があること(例: Google Colab)<br>
|