Datasets:
Dataset Card for taic-filtered
🏛️ taic-filtered 是以 臺灣主權 AI 訓練語料庫(TAIC) 為原始來源,經過多階段品質過濾與清洗所建立的繁體中文預訓練語料集。TAIC 由中華民國數位部主導建置,蒐集並整合各政府機關的繁體中文文件,以促進臺灣本土 AI 模型的訓練與發展。
本版本資料截止日期:2026-02-11 19:15:43(含) 粗估總 token 數量:≈ 5.2 億 tokens(520M tokens,以 tiktoken cl100k_base 估算)
Dataset Details
Dataset Description
🏛️ taic-filtered 以 TAIC 開放資料為基礎,透過自動化 pipeline 進行結構驗證、編碼修復、內容分類、文字清洗、LLM 品質評估與去重,從 11,410 份原始文件(截止 2026-02-11 19:15:43)中篩選出 9,410 份高品質繁體中文語料,粗估總量約 ≈ 5.2 億 tokens(520M tokens),適用於語言模型持續預訓練。
品質評估階段使用 Devstral-Small-2-24B-Instruct-2512 對每筆文件進行可讀性、內容類型與預訓練價值評分,確保最終語料具備足夠的知識密度與文本品質。處理流程包含 URL 替換(以 [url] 佔位)以避免模型學習裸露網址,以及結構化資料(CSV、JSON dump、HTML)的自動識別與排除。
Metadata:
- Curated by: Liang Hsun Huang
- Language(s): Traditional Chinese(繁體中文)
- Source: 臺灣主權 AI 訓練語料庫 TAIC
- License: 臺灣主權 AI 訓練語料授權條款-第 1 版(主要);政府資料開放授權條款(部分)
Dataset Sources
- Repository: lianghsun/taic-filtered
- Original Source: https://taic.moda.gov.tw/
Uses
Direct Use
本資料集主要設計作為繁體中文語言模型持續預訓練(continued pretraining) 的語料來源,適合用於:
- 強化語言模型對臺灣政府文件、法規、研究報告與人文知識的理解
- 建構或微調以繁體中文為主的基底模型(base models)
- 作為臺灣在地知識密集型語料的補充來源
Out-of-Scope Use
本資料集不適用於下列用途:
- 作為下游任務(如問答、對話、摘要)的指令資料集,因其不含指令-回應結構
- 生成具特定政治立場、商業廣告或情緒操縱意圖的內容
- 進行個人識別、隱私推斷或歧視性分析
- 任何違反原始授權條款(臺灣主權 AI 訓練語料授權條款)的用途
Dataset Structure
每筆記錄為 parquet 格式,text 欄位置於首位以符合主流訓練框架要求:
{
"text": "文件正文內容...",
"processed_by": "mistralai/Devstral-Small-2-24B-Instruct-2512",
"src_file": "原始檔名.json",
"title": "文件標題",
"description": "文件描述",
"license": "授權條款名稱",
"content_type": "narrative | mixed",
"value_score": 4,
"processing_note": "LLM 評估說明與各階段清洗紀錄",
"token_count": 12345,
"word_count": 8765,
...
}
Dataset Creation
Curation Rationale
TAIC 原始資料涵蓋臺灣各政府機關的大量文件,但原始格式參差不齊,包含 OCR 雜訊、BIG5 誤解碼、HTML markup、CSV/JSON 結構化匯出及空白 content 等問題,不適合直接用於預訓練。
本資料集的建立動機在於透過系統化的多階段 pipeline,自動識別並排除低品質內容,同時保留具有知識密度的政府文件、研究報告、法規彙編與人文著作,為臺灣本土語言模型提供可靠的知識語料基礎。
Source Data
Data Collection and Processing
原始資料來自 TAIC 臺灣主權 AI 訓練語料庫,共 11,410 份 JSON 格式文件,涵蓋政府報告、法規、年報、調查報告、出國研習報告、學術期刊、人文著作等類型。
處理 pipeline(共 6 個階段):
S1 — 結構驗證
- 檢查 JSON 結構完整性、
success旗標與content非空 - 排除 411 筆空白 content 記錄
S2 — 編碼修復
- 偵測 BIG5 誤解碼(latin-1 → big5 修復嘗試)
- 計算非標準字符比例(weird_char_ratio),超過 50% 直接丟棄
S3 — 內容分類
- 偵測並排除:HTML markup、JSON/CSV 結構化資料匯出、純頁碼數字串、過短內容(< 300 字元)
- 對目錄點線行比例高的文件發出警告,交後續 LLM 判斷
S4 — 文字清洗
- 移除 PDF 工具浮水印標記
- 移除目錄點線行、純頁碼行、高頻重複頁首/頁尾
- 正規化空白與全形字元
- URL 替換為
[url]佔位符,避免模型學習裸露網址
S5 — LLM 品質評估
- 使用 Devstral-Small-2-24B-Instruct-2512 進行非同步評估(concurrent=20)
- 評估欄位:可讀性、標題相符度、內容類型、預訓練價值(1–5 分)、問題清單
- 結構化資料(
content_type=structured)強制丟棄 - 長文截斷策略:> 60,000 字元取前 30k + 後 20k 送評
S6 — 去重
- 以 content 前 500 字元的 MD5 hash 作為 dedup key
- 同 key 保留最長版本,移除 153 筆重複
後處理 — review 分流
- 104 筆 LLM 標為 review 的記錄,依規則自動分流:
- 純「內容截斷」且 score ≥ 3 → keep
- 標題與內容不符、大量重複文字、英文版報告、score ≤ 2 → discard
- 每筆保留
post_review_triage處理紀錄
License Distribution
| 授權條款 | 筆數 |
|---|---|
| 臺灣主權 AI 訓練語料授權條款-第 1 版 | 8,620 |
| 政府資料開放授權條款-第 1 版 | 430 |
| 政府資料開放授權條款 | 337 |
| 開放資料共享授權-開放資料庫 | 20 |
| CC 授權-姓名標示 | 3 |
Annotations
本資料集的品質標註由 Devstral-Small-2-24B-Instruct-2512 自動生成,屬於合成標註(synthetic annotation)流程,無人工干預。每筆記錄的 processing_note 與 stage_notes 欄位完整保留各階段處理紀錄,可供審查與追溯。
Personal and Sensitive Information
原始資料為政府公開文件,部分記錄(如考試院公報、調查報告)可能含有已公開揭示的個人資訊(如國家考試錄取名單)。這些資料均來自依法公開的政府公報,不涉及私密個資。如有特定隱私疑慮,請聯繫作者處理。
Bias, Risks, and Limitations
- 語料以政府機關文件為主,可能低估民間、學術與媒體語言的多樣性
- 部分長文因截斷策略(前 30k + 後 20k)送評,LLM 未看到完整內容,品質判斷可能有偏差
- OCR 來源文件可能殘留少量字符雜訊,尤其是掃描品質較差的歷史文件
- URL 已替換為
[url],模型訓練後在需要生成具體連結的任務上可能表現受限
Recommendations
建議搭配其他多元繁體中文語料使用,以補足本資料集政府文件偏重的領域分布。
Citation
@misc{taic-filtered,
title = {taic-filtered: A Filtered Traditional Chinese Pretraining Corpus from Taiwan Sovereignty AI Training Corpus},
author = {Liang Hsun Huang},
year = {2026},
howpublished = {\url{https://huggingface.co/datasets/lianghsun/taic-filtered}},
note = {Derived from TAIC (taic.moda.gov.tw) and filtered using a multi-stage quality pipeline with Devstral-Small-2-24B-Instruct-2512.}
}
Dataset Card Authors
Dataset Card Contact
- Downloads last month
- 6