hanlp-ext 插件源碼地址:http://git.oschina.net/hualongdata/hanlp-ext?或?https://github.com/hualongdata/hanlp-ext
Elasticsearch?默認對中文分詞是按“字”進行分詞的,這是肯定不能達到我們進行分詞搜索的要求的。官方有一個?SmartCN?中文分詞插件,另外還有一個 IK 分詞插件使用也比較廣。但這里,我們采用?HanLP?這款?自然語言處理工具?來進行中文分詞。
Elasticsearch
Elasticsearch 的默認分詞效果是慘不忍睹的。
????GET?/_analyze?pretty
????{??????"text"?:?["重慶華龍網海數科技有限公司"]
????}輸出:
{??"tokens":?[
????{??????"token":?"重",??????"start_offset":?0,??????"end_offset":?1,??????"type":?"",??????"position":?0
????},
????{??????"token":?"慶",??????"start_offset":?1,??????"end_offset":?2,??????"type":?"",??????"position":?1
????},
????{??????"token":?"華",??????"start_offset":?2,??????"end_offset":?3,??????"type":?"",??????"position":?2
????},
????{??????"token":?"龍",??????"start_offset":?3,??????"end_offset":?4,??????"type":?"",??????"position":?3
????},
????{??????"token":?"網",??????"start_offset":?4,??????"end_offset":?5,??????"type":?"",??????"position":?4
????},
????{??????"token":?"海",??????"start_offset":?5,??????"end_offset":?6,??????"type":?"",??????"position":?5
????},
????{??????"token":?"數",??????"start_offset":?6,??????"end_offset":?7,??????"type":?"",??????"position":?6
????},
????{??????"token":?"科",??????"start_offset":?7,??????"end_offset":?8,??????"type":?"",??????"position":?7
????},
????{??????"token":?"技",??????"start_offset":?8,??????"end_offset":?9,??????"type":?"",??????"position":?8
????},
????{??????"token":?"有",??????"start_offset":?9,??????"end_offset":?10,??????"type":?"",??????"position":?9
????},
????{??????"token":?"限",??????"start_offset":?10,??????"end_offset":?11,??????"type":?"",??????"position":?10
????},
????{??????"token":?"公",??????"start_offset":?11,??????"end_offset":?12,??????"type":?"",??????"position":?11
????},
????{??????"token":?"司",??????"start_offset":?12,??????"end_offset":?13,??????"type":?"",??????"position":?12
????}
??]
} 可以看到,默認是按字進行分詞的。
elasticsearch-hanlp
HanLP
HanLP?是一款使用 Java 實現的優秀的,具有如下功能:
中文分詞
詞性標注
命名實體識別
關鍵詞提取
自動摘要
短語提取
拼音轉換
簡繁轉換
文本推薦
依存句法分析
語料庫工具
安裝?elasticsearch-hanlp(安裝見:https://github.com/hualongdata/hanlp-ext/tree/master/es-plugin)插件以后,我們再來看看分詞效果。
????GET?/_analyze?pretty
????{??????"analyzer"?:?"hanlp",??????"text"?:?["重慶華龍網海數科技有限公司"]
????}輸出:
{??"tokens":?[
????{??????"token":?"重慶",??????"start_offset":?0,??????"end_offset":?2,??????"type":?"ns",??????"position":?0
????},
????{??????"token":?"華龍網",??????"start_offset":?2,??????"end_offset":?5,??????"type":?"nr",??????"position":?1
????},
????{??????"token":?"海數",??????"start_offset":?5,??????"end_offset":?7,??????"type":?"nr",??????"position":?2
????},
????{??????"token":?"科技",??????"start_offset":?7,??????"end_offset":?9,??????"type":?"n",??????"position":?3
????},
????{??????"token":?"有限公司",??????"start_offset":?9,??????"end_offset":?13,??????"type":?"nis",??????"position":?4
????}
??]
}HanLP 的功能不止簡單的中文分詞,有很多功能都可以集成到 Elasticsearch 中。
文章來源于羊八井的博客
電子發燒友App





























評論