数据集 分类 活动流 THULAC:清华大学中文词法分析工具包 THULAC(THU Lexical Analyzer for Chinese)由清华大学自然语言处理与社会人文计算实验室研制推出的一套中文词法分析工具包,具有中文分词和词性标注功能。THULAC具有如下几个特点: 能力强。利用我们集成的目前世界上规模最大的人工分词和词性标注中文语料库(约含5800万字)训练而成,模型标注能力强大。 准确率高。该工具包在标准数据集Chinese Treebank(CTB5)上分词的F1值可达97.3%,词性标注的F1值可达到92.9%,与该数据集上最好方法效果相当。 速度较快。同时进行分词和词性标注速度为300KB/s,每秒可处理约15万字。只进行分词速度可达到1.3MB/s。 该工具支持C++,java,python三种编程语言。 数据与资源 THULAC官方页面c/c++ 【下载量:1198】 浏览 更多信息 前往资源 nlp 中文分词 自然语言处理 词性标注 其他信息 域 价值 作者 孙茂松, 陈新雄, 张开旭, 郭志芃, 刘知远 最近更新 三月 8, 2017, 06:25 (UTC) 创建的 三月 8, 2017, 06:25 (UTC)