File size: 1,392 Bytes
c9de28d 5d8f530 89cb584 5d8f530 89cb584 5d8f530 720725f f8ce541 720725f f8ce541 720725f f8ce541 720725f |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 |
---
license: mit
---
---
**v2モデルを以下のリンク先にリリースしました**
[oshizo/japanese-sexual-moderation-v2](https://huggingface.co/oshizo/japanese-sexual-moderation-v2)
---
japanese-sexual-moderationは、[studio-ousia/luke-japanese-large-lite](https://huggingface.co/studio-ousia/luke-japanese-large-lite)をファインチューニングしたモデルです。
短文が性的かどうかをスコアリングします。
20230/9/17時点のバージョンは限られたデータ数で訓練されており、スコアリングの傾向にはデータセットに起因するバイアスがある可能性があります。
このモデルは[japanese-llm-roleplay-benchmark](https://github.com/oshizo/japanese-llm-roleplay-benchmark)でのERPスコアを算出するために作成されました。
## Usage
```python
from transformers import AutoModelForSequenceClassification, AutoTokenizer
import numpy as np
model_id = "oshizo/japanese-sexual-moderation"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForSequenceClassification.from_pretrained(
model_id,
problem_type="multi_label_classification",
num_labels=1
)
text = "富士山は日本で一番高い山です。"
with torch.no_grad():
encoding = tokenizer(text, return_tensors="pt")
score = model(**encoding).logits
# tensor([[-2.7863]])
```
|