Update README.md
Browse files
README.md
CHANGED
@@ -21,7 +21,85 @@ configs:
|
|
21 |
data_files:
|
22 |
- split: train
|
23 |
path: 20231001/train-*
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
24 |
---
|
25 |
# Dataset Card for "wikipedia-zhtw"
|
26 |
|
27 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
21 |
data_files:
|
22 |
- split: train
|
23 |
path: 20231001/train-*
|
24 |
+
license: cc-by-sa-3.0
|
25 |
+
task_categories:
|
26 |
+
- text-generation
|
27 |
+
- fill-mask
|
28 |
+
language:
|
29 |
+
- zh
|
30 |
+
size_categories:
|
31 |
+
- 1M<n<10M
|
32 |
---
|
33 |
# Dataset Card for "wikipedia-zhtw"
|
34 |
|
35 |
+
維基百科數據集包含許多不同語言的文章。這個數據集是根據 Wikipedia dumps (https://dumps.wikimedia.org/) 裡頭 `zhwiki` 的中文下載檔案來建構的。每個範例都包含一篇完整的維基百科文章的內容,並經過清理以去除不需要的部分(例如參考文獻等)。
|
36 |
+
|
37 |
+
- **Homepage:** [https://dumps.wikimedia.org](https://dumps.wikimedia.org)
|
38 |
+
- **zhwiki 下載點:** [https://dumps.wikimedia.org/zhwiki](https://dumps.wikimedia.org/zhwiki)
|
39 |
+
|
40 |
+
## 數據 Dump 版本
|
41 |
+
|
42 |
+
由於維基百科數據集定期會進行網站數據拋轉,在 `2023/10/10` 的時間點去查看時會有下列的數據可供下載:
|
43 |
+
|
44 |
+
|數據 Dump 目錄|拋轉時間點|
|
45 |
+
|-------------|--------|
|
46 |
+
|`20230620/`|01-Aug-2023 09:31|
|
47 |
+
|`20230701/`|20-Aug-2023 09:41|
|
48 |
+
|`20230720/`|01-Sep-2023 09:31|
|
49 |
+
|`20230801/`|20-Sep-2023 09:38|
|
50 |
+
|`20230820/`|01-Oct-2023 09:34|
|
51 |
+
|`20230901/`|04-Sep-2023 21:18|
|
52 |
+
|`20230920/`|22-Sep-2023 01:59|
|
53 |
+
|`20231001/`|10-Oct-2023 02:55|
|
54 |
+
|`latest/`|10-Oct-2023 02:55|
|
55 |
+
|
56 |
+
本數據集會定期去取得最近有明確的日期來進行下載與清理,便於驗證與使用。
|
57 |
+
|
58 |
+
## 數據下載清理
|
59 |
+
|
60 |
+
1. 下載 zhwiki 的 data dump 檔案
|
61 |
+
2. 使用 [WikiExtractor](https://github.com/attardi/wikiextractor) 套件來進行文件內容萃取
|
62 |
+
3. 進行數據清理并轉換成 jsonl 格式檔案
|
63 |
+
4. 使用 Huggingface [Datasets](https://pypi.org/project/datasets/) 套件來載入 jsonl 并上傳至 Huggingface Hub
|
64 |
+
|
65 |
+
## 資料集結構
|
66 |
+
|
67 |
+
範例如下:
|
68 |
+
|
69 |
+
{'id': '333',
|
70 |
+
'url': 'https://zh.wikipedia.org/wiki?curid=333',
|
71 |
+
'title': '鄧麗君',
|
72 |
+
'text': '鄧麗君,臺灣歌手、演員及慈善家,本名鄧麗筠。她是20世紀後期華語流行音樂具代表性的人物...'
|
73 |
+
}
|
74 |
+
|
75 |
+
## 資料欄位
|
76 |
+
|
77 |
+
所有配置中的資料欄位都是相同的:
|
78 |
+
|
79 |
+
- `id (str)`: 文章的 ID。
|
80 |
+
- `url (str)`: 文章的 URL。
|
81 |
+
- `title (str)`: 文章的標題。
|
82 |
+
- `text (str)`: 文章的文字內容。
|
83 |
+
|
84 |
+
## 使用
|
85 |
+
|
86 |
+
```python
|
87 |
+
from datasets import load_dataset
|
88 |
+
|
89 |
+
# 請在第二個參數去指定要使用的數據 dump 的日期
|
90 |
+
load_dataset("erhwenkuo/wikipedia-zhtw", "20231001")
|
91 |
+
```
|
92 |
+
|
93 |
+
## 許可資訊
|
94 |
+
|
95 |
+
維基百科的大部分文章內容及其許多圖像均根據 `Creative Commons Attribution-ShareAlike 3.0 Unported License (CC BY-SA)` 和 `GNU Free Documentation License (GFDL)` 共同授權。
|
96 |
+
|
97 |
+
## Citation
|
98 |
+
|
99 |
+
```
|
100 |
+
@ONLINE{wikidump,
|
101 |
+
author = "Wikimedia Foundation",
|
102 |
+
title = "Wikimedia Downloads",
|
103 |
+
url = "https://dumps.wikimedia.org"
|
104 |
+
}
|
105 |
+
```
|