tokushi commited on
Commit
2232cda
·
verified ·
1 Parent(s): 8093e7c

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +19 -8
README.md CHANGED
@@ -1,19 +1,30 @@
1
  ---
2
- library_name: transformers
3
- tags: []
 
 
 
 
 
4
  ---
5
- 本コードはunslothで学習したqLoRAのアダプタを用いてELYZA-tasks-100-TVの出力を得るためのコードです。<br>
6
- 松尾研大規模言語モデル講座2024のコンペ用の提出モデル作成の一環として作成・公開しています。<br>
7
- このコードはunslothライブラリを用いてモデルを読み込み、推論するためのコードとなります。
8
 
9
- # Uploaded model
 
 
10
 
11
  - **Developed by:** tokushi
12
- - **License:** apache-2.0
13
- - **Finetuned from model :** llm-jp/llm-jp-3-13b
 
 
14
 
15
  This llama model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
16
 
 
 
 
 
 
17
  # 前提条件
18
 
19
  Python環境があること(例: Google Colab)<br>
 
1
  ---
2
+ language:
3
+ - ja
4
+ tags:
5
+ - japanese
6
+ - lora
7
+ license: apache-2.0
8
+ base_model: llm-jp/llm-jp-3-13b
9
  ---
 
 
 
10
 
11
+ # llm-jp-3-13b-it_lora
12
+
13
+ ## Model Details
14
 
15
  - **Developed by:** tokushi
16
+ - **Model type:** Language Model with LoRA fine-tuning
17
+ - **Language(s):** Japanese
18
+ - **License:** Apache 2.0
19
+ - **Finetuned from model:** llm-jp/llm-jp-3-13b
20
 
21
  This llama model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
22
 
23
+ ## Usage
24
+ 本コードはunslothで学習したqLoRAのアダプタを用いてELYZA-tasks-100-TVの出力を得るためのコードです。<br>
25
+ 松尾研大規模言語モデル講座2024のコンペ用の提出モデル作成の一環として作成・公開しています。<br>
26
+ このコードはunslothライブラリを用いてモデルを読み込み、推論するためのコードとなります。
27
+
28
  # 前提条件
29
 
30
  Python環境があること(例: Google Colab)<br>