資源整理了文本分類、實體識別&詞性標注、搜索匹配、推薦系統、指代消歧、百科數據、預訓練詞向量or模型、中文完形填空等大量數據集,中文數據集平臺和NLP工具等。
本文內容整理自:https://github.com/InsaneLife/ChineseNLPCorpus
文本分類
新聞分類
今日頭條中文新聞(短文本)分類數據集:https://github.com/fateleak/toutiao-text-classfication-dataset
數據規模:共38萬條,分布于15個分類中。
采集時間:2018年05月。
以0.7 0.15 0.15做分割 。
清華新聞分類語料:
根據新浪新聞RSS訂閱頻道2005~2011年間的歷史數據篩選過濾生成。
數據量:74萬篇新聞文檔(2.19 GB)
小數據實驗可以篩選類別:體育, 財經, 房產, 家居, 教育, 科技, 時尚, 時政, 游戲, 娛樂
http://thuctc.thunlp.org/#%E8%8E%B7%E5%8F%96%E9%93%BE%E6%8E%A5
rnn和cnn實驗:https://github.com/gaussic/text-classification-cnn-rnn
中科大新聞分類語料庫:http://www.nlpir.org/?action-viewnews-itemid-145
情感/觀點/評論 傾向性分析

實體識別&詞性標注
微博實體識別
https://github.com/hltcoe/golden-horse
boson數據
包含6種實體類型。
https://github.com/InsaneLife/ChineseNLPCorpus/tree/master/NER/boson
人民日報數據集
人名、地名、組織名三種實體類型
1998:https://github.com/InsaneLife/ChineseNLPCorpus/tree/master/NER/renMinRiBao
2004:https://pan.baidu.com/s/1LDwQjoj7qc-HT9qwhJ3rcA password: 1fa3
MSRA微軟亞洲研究院數據集
5 萬多條中文命名實體識別標注數據(包括地點、機構、人物)
https://github.com/InsaneLife/ChineseNLPCorpus/tree/master/NER/MSRA
SIGHAN Bakeoff 2005:一共有四個數據集,包含繁體中文和簡體中文,下面是簡體中文分詞數據。
MSR: http://sighan.cs.uchicago.edu/bakeoff2005/
PKU :http://sighan.cs.uchicago.edu/bakeoff2005/
搜索匹配
OPPO手機搜索排序
OPPO手機搜索排序query-title語義匹配數據集。
鏈接//pan.baidu.com/s/1Hg2Hubsn3GEuu4gubbHCzw 提取碼:7p3n
網頁搜索結果評價(SogouE)
用戶查詢及相關URL列表
https://www.sogou.com/labs/resource/e.php
推薦系統

百科數據
維基百科
維基百科會定時將語料庫打包發布:
數據處理博客
https://dumps.wikimedia.org/zhwiki/
百度百科
只能自己爬,爬取得鏈接:https://pan.baidu.com/share/init?surl=i3wvfil提取碼 neqs 。
指代消歧
CoNLL 2012 :http://conll.cemantix.org/2012/data.html
預訓練:(詞向量or模型)
BERT
開源代碼:https://github.com/google-research/bert
模型下載:BERT-Base, Chinese: Chinese Simplified and Traditional, 12-layer, 768-hidden, 12-heads, 110M parameters
ELMO
開源代碼:https://github.com/allenai/bilm-tf
預訓練的模型:https://allennlp.org/elmo
騰訊詞向量
騰訊AI實驗室公開的中文詞向量數據集包含800多萬中文詞匯,其中每個詞對應一個200維的向量。
下載地址:https://ai.tencent.com/ailab/nlp/embedding.html
上百種預訓練中文詞向量
https://github.com/Embedding/Chinese-Word-Vectors
中文完形填空數據集
https://github.com/ymcui/Chinese-RC-Dataset
中華古詩詞數據庫
最全中華古詩詞數據集,唐宋兩朝近一萬四千古詩人, 接近5.5萬首唐詩加26萬宋詩. 兩宋時期1564位詞人,21050首詞。
https://github.com/chinese-poetry/chinese-poetry
保險行業語料庫
https://github.com/Samurais/insuranceqa-corpus-zh
漢語拆字字典
英文可以做char embedding,中文不妨可以試試拆字
https://github.com/kfcd/chaizi
中文數據集平臺
搜狗實驗室
搜狗實驗室提供了一些高質量的中文文本數據集,時間比較早,多為2012年以前的數據。
https://www.sogou.com/labs/resource/list_pingce.php
中科大自然語言處理與信息檢索共享平臺
http://www.nlpir.org/?action-category-catid-28
中文語料小數據
包含了中文命名實體識別、中文關系識別、中文閱讀理解等一些小量數據。
https://github.com/crownpku/Small-Chinese-Corpus
維基百科數據集
https://dumps.wikimedia.org/
NLP工具
THULAC:https://github.com/thunlp/THULAC :包括中文分詞、詞性標注功能。
HanLP:https://github.com/hankcs/HanLP
哈工大LTP:https://github.com/HIT-SCIR/ltp
NLPIR:https://github.com/NLPIR-team/NLPIR
jieba分詞:https://github.com/yanyiwu/cppjieba
責任編輯:xj
原文標題:最全中文自然語言處理數據集、平臺和工具整理
文章出處:【微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。
-
數據
+關注
關注
8文章
7335瀏覽量
94777 -
自然語言處理
+關注
關注
1文章
630瀏覽量
14667 -
自然語言
+關注
關注
1文章
292瀏覽量
13989 -
nlp
+關注
關注
1文章
491瀏覽量
23280
原文標題:最全中文自然語言處理數據集、平臺和工具整理
文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
MinGW-w64工具集壓縮包的下載
HarmonyOSAI編程自然語言代碼生成
小白學大模型:國外主流大模型匯總
【HZ-T536開發板免費體驗】5- 無需死記 Linux 命令!用 CangjieMagic 在 HZ-T536 開發板上搭建 MCP 服務器,自然語言輕松控板
請問AICube所需的目標檢測數據集標注可以使用什么工具?
milvus向量數據庫的主要特性和應用場景
Transformer架構概述
各大廠商與新興企業推出的 EDA Copilot 工具
云知聲四篇論文入選自然語言處理頂會ACL 2025
NLP中文自然語言處理數據集、平臺和工具整理
評論