SO0529 commited on
Commit
82e740d
·
verified ·
1 Parent(s): 168d786

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +48 -0
README.md CHANGED
@@ -1,3 +1,51 @@
1
  ---
2
  license: apache-2.0
 
 
 
 
3
  ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
  ---
2
  license: apache-2.0
3
+ language:
4
+ - ja
5
+ widget:
6
+ - text: 人とAIが協調するためには、
7
  ---
8
+
9
+ # Mixtral-8x7B-Instruct-v0.1-japanese-alpha-merged
10
+
11
+ Mixtral-8x7B-v0.1-japanese-alpha-mergedは[Mixtral-8x7B-Instruct-v0.1](https://huggingface.co/mistralai/Mixtral-8x7B-Instruct-v0.1)をベースに日本語の語彙拡張継続事前学習を実施した[学習途中のモデル](https://huggingface.co/abeja/Mixtral-8x7B-Instruct-v0.1-japanese-alpha)に対して、差分マージを実施したモデルです。
12
+ [ABEJAのテックブログ](https://tech-blog.abeja.asia/)にて評価を実施した途中結果モデルとして公開しています。
13
+
14
+
15
+ # 使い方
16
+ ``` python
17
+ import torch
18
+ from transformers import AutoModelForCausalLM, AutoTokenizer
19
+
20
+ model_name = "abeja/Mixtral-8x7B-Instruct-v0.1-japanese-alpha-merged"
21
+
22
+ tokenizer = AutoTokenizer.from_pretrained(model_name)
23
+ model = AutoModelForCausalLM.from_pretrained(
24
+ model_name,
25
+ torch_dtype=torch.float16,
26
+ use_cache=True,
27
+ device_map="auto",
28
+ )
29
+ model.eval()
30
+
31
+ text = "人とAIが協調するためには、"
32
+ input_ids = tokenizer.encode(input_text, return_tensors="pt")
33
+
34
+ with torch.no_grad():
35
+ output_ids = model.generate(
36
+ token_ids.to(model.device),
37
+ max_new_tokens=256,
38
+ pad_token_id=tokenizer.pad_token_id,
39
+ eos_token_id=tokenizer.eos_token_id,
40
+ )
41
+ output = tokenizer.decode(output_ids.tolist()[0], skip_special_tokens=True)
42
+ print(output)
43
+ ```
44
+
45
+ # 開発者
46
+ - Kentaro Nakanishi
47
+ - Keisuke Fujimoto
48
+ - Kyo Hattori
49
+ - Shinya Otani
50
+ - Shogo Muranushi
51
+ (*)アルファベット順