栏目分类:
子分类:
返回
文库吧用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
文库吧 > IT > 前沿技术 > 人工智能 > NLP

NLP分词和在线分词大总结

NLP 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

NLP分词和在线分词大总结

一、在线分词

1、哈工大主干分析,有词性标记

https://ltp.ai/demo.html

2、百度在线词法分析,也就包含分词

https://ai.baidu.com/tech/nlp_basic/lexical

3、hanlp词法分析

https://hanlp.hankcs.com/

4、结巴(jieba)在线分词

https://app.gumble.pw/jiebademo/

 

二、离线分词

1、jieba分词

     安装与使用

pip install jieba

#使用
import jieba 
jieba.cut('NLP分词工具')

   2、pkuseg 北京大学开源

安装与使用

pip3 install -U pkuseg
import pkuseg

seg = pkuseg.pkuseg()           # 以默认配置加载模型
text = seg.cut('我爱北京天安门')  # 进行分词
print(text)

3、百度词法分析

全自动安装: pip install lac
半自动下载:先下载http://pypi.python.org/pypi/lac/,解压后运行 python setup.py install
from LAC import LAC

# 装载分词模型
lac = LAC(mode='seg')
# 单个样本输入,输入为Unicode编码的字符串
text = u"LAC是个优秀的分词工具"
seg_result = lac.run(text)

第二种使用方法 使用paddleHub

    lac = hub.Module(name="lac")  ### 这些代码在paddle demo下
    test_text = ["今天是个好日子", "天气预报说今天要下雨", "下一班地铁马上就要到了"]

    # Set input dict
    inputs = {"text": test_text}

 

转载请注明:文章转载自 www.wk8.com.cn
本文地址:https://www.wk8.com.cn/it/834431.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 wk8.com.cn

ICP备案号:晋ICP备2021003244-6号