V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
woshilietou
V2EX  ›  分享发现

北大开源全新中文分词工具包:准确率远超 THULAC、结巴分词

  •  
  •   woshilietou · 2019-01-09 12:01:43 +08:00 · 1816 次点击
    这是一个创建于 1944 天前的主题,其中的信息可能已经有所发展或是发生改变。
    最近,北大开源了一个中文分词工具包,它在多个分词数据集上都有非常高的分词准确率。其中广泛使用的结巴分词误差率高达 18.55% 和 20.42 ,而北大的 pkuseg 只有 3.25% 与 4.32%。

    pkuseg 是由北京大学语言计算与机器学习研究组研制推出的一套全新的中文分词工具包。它简单易用,支持多领域分词,在不同领域的数据上都大幅提高了分词的准确率。

    项目地址: https://github.com/lancopku/PKUSeg-python

    pkuseg 具有如下几个特点:

    高分词准确率:相比于其他的分词工具包,该工具包在不同领域的数据上都大幅提高了分词的准确度。根据北大研究组的测试结果,pkuseg 分别在示例数据集( MSRA 和 CTB8 )上降低了 79.33% 和 63.67% 的分词错误率。
    多领域分词:研究组训练了多种不同领域的分词模型。根据待分词的领域特点,用户可以自由地选择不同的模型。
    支持用户自训练模型:支持用户使用全新的标注数据进行训练
    neosfung
        1
    neosfung  
       2019-01-10 11:00:31 +08:00
    这个 repo,issue 里面批评的声音很多啊。。。测了一下

    seg.cut('买水果然后来世博园最后去世博会')

    ['买', '水果然', '后来', '世博园', '最后', '去世', '博会']
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   1037 人在线   最高记录 6543   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 29ms · UTC 19:14 · PVG 03:14 · LAX 12:14 · JFK 15:14
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.