找到5个工具集

标签: nlp

过滤结果
  • Stanford CoreNLP: A Java suite of core NLP tools

    Stanford CoreNLP是由斯坦福大学自然语言处理组开发的一套自然语言处理工具包,包括分词、词性标注、命名实体识别、句法分析、指代消解、情感分析等模块,主要面向英文自然语言处理。同时很多功能对其他语言同样有支持,例如中文的分词、词性标注、句法分析等。该项目遵从GPL协议。
  • FudanNLP: 中文自然语言处理工具包

    FudanNLP是由复旦大学自然语言处理组开发的一套中文自然语言处理工具包,包括中文分词、词性标注、命名实体识别、依存句法分析、关键词抽取、时间短语识别、文本分类、新闻聚类、层次分类、在线学习等功能,该项目使用LGPL3.0许可证。
  • HanLP: Han Language Processing

    HanLP是由一系列模型与算法组成的Java工具包,目标是普及自然语言处理在生产环境中的应用。HanLP具备功能完善、性能高效、架构清晰、语料时新、可自定义的特点。 HanLP提供下列功能:分词、词性标注、命名实体识别、关键词抽取、自动摘要、短语提取、拼音转换、简繁转换、文本推荐、依存句法分析等。
  • 哈工大LTP: Language Technology Platform

    语言技术平台(Language Technology Platform,LTP)是哈工大社会计算与信息检索研究中心历时十年开发的一整套开源中文语言处理系统。包括分词、词性标注、命名实体识别、依存句法分析、语义角色标注等功能。
  • THULAC:清华大学中文词法分析工具包

    THULAC(THU Lexical Analyzer for Chinese)由清华大学自然语言处理与社会人文计算实验室研制推出的一套中文词法分析工具包,具有中文分词和词性标注功能。THULAC具有如下几个特点: 能力强。利用我们集成的目前世界上规模最大的人工分词和词性标注中文语料库(约含5800万字)训练而成,模型标注能力强大。...
您也可以使用应用程式界面 (看 API文献)注册.