文本分析

用Py做文本分析2:结巴分词

2020-02-06  本文已影响0人  凡有言说

分词的算法有两大类:

分词是一个比较大的坑。原因有:

结巴分词是目前应用最广、评价比较高的分词工具包。
如何在anaconda中安装jieba分词

1.基本模式

结巴分词共有四种分词模式:

import jieba

tmpstr = '郭靖和哀牢山三十六剑。'
res = jieba.cut(tmpstr) #精确模式(默认)
print(res) #是可迭代的生成器,可用for循环遍历,本质上类似于list

<generator object Tokenizer.cut at 0x000002DCD667F750>

#1精简模式
print(' '.join(res))

郭靖 和 哀牢山 三十六 剑 。

 #将可迭代对象转换为列表
res = jieba.cut(tmpstr)
list(word for word in res) 

['郭靖', '和', '哀牢山', '三十六', '剑', '。']

#结果直接输出为list
print(jieba.lcut(tmpstr)) 

['郭靖', '和', '哀牢山', '三十六', '剑', '。']

#2全模式
print('/'.join(jieba.cut(tmpstr, cut_all=True)))

郭/靖/和/哀牢山/三十/三十六/十六/剑/。

print(jieba.lcut(tmpstr, cut_all=True))

['郭', '靖', '和', '哀牢山', '三十', '三十六', '十六', '剑', '。']

#3搜索引擎模式
print('/'.join(jieba.cut_for_search(tmpstr)))

郭靖/和/哀牢山/三十/十六/三十六/剑/。

print(jieba.lcut_for_search(tmpstr))

['郭靖', '和', '哀牢山', '三十', '十六', '三十六', '剑', '。']

2.使用词典

“哀牢山三十六剑”是一个完整的词,但以上的分词却把它进行了拆分。为了解决这一问题,我们需要添加该词,即告诉电脑“哀牢山三十六剑”是一个完整的词,请不要拆分。

#添加新词
jieba.add_word('哀牢山三十六剑')
print('/'.join(jieba.cut(tmpstr)))

郭靖/和/哀牢山三十六剑/。

#删除新词
jieba.del_word('哀牢山三十六剑')
print('/'.join(jieba.cut(tmpstr)))

郭靖/和/哀牢山/三十六/剑/。

如果词很少,可以手工添加,当词量很大时,我们可以考虑加载对应的词典来解决问题。

词典的基本格式是:

#使用本地的词典
dict = 'D:/Files/program data/nlp/PythonData/金庸小说词库.txt'
jieba.load_userdict(dict) #dict为自定义词典的路径
print('/'.join(jieba.cut(tmpstr)))

郭靖/和/哀牢山三十六剑/。

关于词库,这里推荐
搜狗细胞词库
由于下载后的格式不是txt,还需要转换下格式:

3.去除停用词

有时我们需要进行词频统计,不出意外会发现高频词都是如“的”、“只”等常用词,这些词往往不带有有效信息,因此需要将其去除(停用)。

思路一:分词后去除停用词

#分词后去除停用词
newlist = [w for w in jieba.cut(tmpstr) if w not in ['和', '。']]
print(newlist)

['郭靖', '哀牢山三十六剑']

import pandas as pd
tmpdf = pd.read_csv('D:/Files/program data/nlp/PythonData/停用词.txt',
                   names=['w'], sep='aaa', encoding='utf-8')newlist = [w for w in jieba.cut(tmpstr) if w not in list(tmpdf.w)]
print(newlist)

['郭靖', '哀牢山三十六剑']

思路二:使用extract_tags函数
在提取之前去掉通用词,根据TF-IDF算法将特征词提取出来。此外,可以人工指定停用词字典。

#使用extract_tags函数
import jieba.analyse as ana
ana.set_stop_words('D:/Files/program data/nlp/PythonData/停用词.txt')
ana.extract_tags(tmpstr, topK=20)

['郭靖', '哀牢山三十六剑']

4.词性标注

词性标注采用的是
ICTCLAS 汉语词性标注集

import jieba.posseg as psg

tmpres = psg.cut(tmpstr) #附加词性的分词结果
print(tmpres)

for item in tmpres:
    print(item.word, item.flag)

<generator object cut at 0x000002DCDC382B88>
郭靖 x
和 c
哀牢山三十六剑 x
。 x

#直接输出为list,成员为pair
psg.lcut(tmpstr)

[pair('郭靖', 'x'), pair('和', 'c'), pair('哀牢山三十六剑', 'x'), pair('。', 'x')]

psg.lcut(tmpstr)[0].word

'郭靖'

参考资料:
Python数据分析--玩转文本挖掘

上一篇下一篇

猜你喜欢

热点阅读