You need to agree to share your contact information to access this dataset

This repository is publicly accessible, but you have to accept the conditions to access its files and content.

Log in or Sign Up to review the conditions and access this dataset content.

Dataset Card for taic-filtered

🏛️ taic-filtered 是以 臺灣主權 AI 訓練語料庫(TAIC) 為原始來源,經過多階段品質過濾與清洗所建立的繁體中文預訓練語料集。TAIC 由中華民國數位部主導建置,蒐集並整合各政府機關的繁體中文文件,以促進臺灣本土 AI 模型的訓練與發展。

本版本資料截止日期:2026-02-11 19:15:43(含) 粗估總 token 數量:≈ 5.2 億 tokens(520M tokens,以 tiktoken cl100k_base 估算)

Dataset Details

Dataset Description

🏛️ taic-filtered 以 TAIC 開放資料為基礎,透過自動化 pipeline 進行結構驗證、編碼修復、內容分類、文字清洗、LLM 品質評估與去重,從 11,410 份原始文件(截止 2026-02-11 19:15:43)中篩選出 9,410 份高品質繁體中文語料,粗估總量約 ≈ 5.2 億 tokens(520M tokens),適用於語言模型持續預訓練。

品質評估階段使用 Devstral-Small-2-24B-Instruct-2512 對每筆文件進行可讀性、內容類型與預訓練價值評分,確保最終語料具備足夠的知識密度與文本品質。處理流程包含 URL 替換(以 [url] 佔位)以避免模型學習裸露網址,以及結構化資料(CSV、JSON dump、HTML)的自動識別與排除。

Metadata:

Dataset Sources

Uses

Direct Use

本資料集主要設計作為繁體中文語言模型持續預訓練(continued pretraining) 的語料來源,適合用於:

  • 強化語言模型對臺灣政府文件、法規、研究報告與人文知識的理解
  • 建構或微調以繁體中文為主的基底模型(base models)
  • 作為臺灣在地知識密集型語料的補充來源

Out-of-Scope Use

本資料集不適用於下列用途:

  • 作為下游任務(如問答、對話、摘要)的指令資料集,因其不含指令-回應結構
  • 生成具特定政治立場、商業廣告或情緒操縱意圖的內容
  • 進行個人識別、隱私推斷或歧視性分析
  • 任何違反原始授權條款(臺灣主權 AI 訓練語料授權條款)的用途

Dataset Structure

每筆記錄為 parquet 格式,text 欄位置於首位以符合主流訓練框架要求:

{
  "text": "文件正文內容...",
  "processed_by": "mistralai/Devstral-Small-2-24B-Instruct-2512",
  "src_file": "原始檔名.json",
  "title": "文件標題",
  "description": "文件描述",
  "license": "授權條款名稱",
  "content_type": "narrative | mixed",
  "value_score": 4,
  "processing_note": "LLM 評估說明與各階段清洗紀錄",
  "token_count": 12345,
  "word_count": 8765,
  ...
}

Dataset Creation

Curation Rationale

TAIC 原始資料涵蓋臺灣各政府機關的大量文件,但原始格式參差不齊,包含 OCR 雜訊、BIG5 誤解碼、HTML markup、CSV/JSON 結構化匯出及空白 content 等問題,不適合直接用於預訓練。

本資料集的建立動機在於透過系統化的多階段 pipeline,自動識別並排除低品質內容,同時保留具有知識密度的政府文件、研究報告、法規彙編與人文著作,為臺灣本土語言模型提供可靠的知識語料基礎。

Source Data

Data Collection and Processing

原始資料來自 TAIC 臺灣主權 AI 訓練語料庫,共 11,410 份 JSON 格式文件,涵蓋政府報告、法規、年報、調查報告、出國研習報告、學術期刊、人文著作等類型。

處理 pipeline(共 6 個階段):

S1 — 結構驗證

  • 檢查 JSON 結構完整性、success 旗標與 content 非空
  • 排除 411 筆空白 content 記錄

S2 — 編碼修復

  • 偵測 BIG5 誤解碼(latin-1 → big5 修復嘗試)
  • 計算非標準字符比例(weird_char_ratio),超過 50% 直接丟棄

S3 — 內容分類

  • 偵測並排除:HTML markup、JSON/CSV 結構化資料匯出、純頁碼數字串、過短內容(< 300 字元)
  • 對目錄點線行比例高的文件發出警告,交後續 LLM 判斷

S4 — 文字清洗

  • 移除 PDF 工具浮水印標記
  • 移除目錄點線行、純頁碼行、高頻重複頁首/頁尾
  • 正規化空白與全形字元
  • URL 替換為 [url] 佔位符,避免模型學習裸露網址

S5 — LLM 品質評估

  • 使用 Devstral-Small-2-24B-Instruct-2512 進行非同步評估(concurrent=20)
  • 評估欄位:可讀性、標題相符度、內容類型、預訓練價值(1–5 分)、問題清單
  • 結構化資料(content_type=structured)強制丟棄
  • 長文截斷策略:> 60,000 字元取前 30k + 後 20k 送評

S6 — 去重

  • 以 content 前 500 字元的 MD5 hash 作為 dedup key
  • 同 key 保留最長版本,移除 153 筆重複

後處理 — review 分流

  • 104 筆 LLM 標為 review 的記錄,依規則自動分流:
    • 純「內容截斷」且 score ≥ 3 → keep
    • 標題與內容不符、大量重複文字、英文版報告、score ≤ 2 → discard
  • 每筆保留 post_review_triage 處理紀錄

License Distribution

授權條款 筆數
臺灣主權 AI 訓練語料授權條款-第 1 版 8,620
政府資料開放授權條款-第 1 版 430
政府資料開放授權條款 337
開放資料共享授權-開放資料庫 20
CC 授權-姓名標示 3

Annotations

本資料集的品質標註由 Devstral-Small-2-24B-Instruct-2512 自動生成,屬於合成標註(synthetic annotation)流程,無人工干預。每筆記錄的 processing_notestage_notes 欄位完整保留各階段處理紀錄,可供審查與追溯。

Personal and Sensitive Information

原始資料為政府公開文件,部分記錄(如考試院公報、調查報告)可能含有已公開揭示的個人資訊(如國家考試錄取名單)。這些資料均來自依法公開的政府公報,不涉及私密個資。如有特定隱私疑慮,請聯繫作者處理。

Bias, Risks, and Limitations

  • 語料以政府機關文件為主,可能低估民間、學術與媒體語言的多樣性
  • 部分長文因截斷策略(前 30k + 後 20k)送評,LLM 未看到完整內容,品質判斷可能有偏差
  • OCR 來源文件可能殘留少量字符雜訊,尤其是掃描品質較差的歷史文件
  • URL 已替換為 [url],模型訓練後在需要生成具體連結的任務上可能表現受限

Recommendations

建議搭配其他多元繁體中文語料使用,以補足本資料集政府文件偏重的領域分布。

Citation

@misc{taic-filtered,
  title        = {taic-filtered: A Filtered Traditional Chinese Pretraining Corpus from Taiwan Sovereignty AI Training Corpus},
  author       = {Liang Hsun Huang},
  year         = {2026},
  howpublished = {\url{https://huggingface.co/datasets/lianghsun/taic-filtered}},
  note         = {Derived from TAIC (taic.moda.gov.tw) and filtered using a multi-stage quality pipeline with Devstral-Small-2-24B-Instruct-2512.}
}

Dataset Card Authors

Liang Hsun Huang

Dataset Card Contact

Liang Hsun Huang

Downloads last month
6