Machine Learning & Recommendation & NLP & DL

分词 & 词性标注

2019-05-04  本文已影响1人  还有下文

0 分词

0.1 含义

通过空格 或者 其他 边界标记 将汉字序列 按照一定的规范 切分成单词的词(可以单个、两个、三个…)

0.2 难点

0.3 分词基本方法

优点: 速度快,O(n) 的时间复杂度,实现简单,效果尚可
缺点: 对歧义和未登录词处理效果不佳

主要的统计模型:
N-gram,HMM,ME,CRF

基于统计的分词方法包括:
N-最短路径方法、基于词的 n 元语法模型的分词方
法、由字构词的汉语分词方法、基于词感知机算法的汉语分词方法、基于字的生成式模型和区分式模型相结合的汉语分词方法

这类方法:首先对预料的字进行嵌入、得到word embedding后,将字嵌入特征输入给双向LSTM、输出层输出DL所学习到的特征,并输入给 CRF 层,得到最终模型。现有的方法包括:
LSTM+CRF、 BiLSTM+CRF

基本思想:在分词的同时进行句法、语义分析,利用句法信息和语义信息来处理歧义现象。

通常包括三个部分: 分词子系统、 句法语义子系统、 总控部分。
在总控部分的协调下,分词子系统可以获得有关词、句子等的句法和语义信息来对分词歧义进行判断,即模拟了人对句子的理解过程。

还处在试验阶段。

0.4 分词工具

1 词性标注

1.1 含义

在给定句子中判定每个词的语法范畴,确定其词性并加以标注。
如“我爱自然语言处理技术” :
“我”是 代词 r ;
“爱”是 动词 v。

1.2 难点

1,汉语缺乏词形态变化,也没有时态
2,兼用现象十分常见,歧义
3,目前尚无统一的词性划分标准

1.3 常见方法

  1. 基于规则
    早期的人工标注

2.基于统计模型
在有标记数据的大型语料库下进行训练

HMM 隐马尔科夫模型
CRF 条件随机域

3.基于统计和规则结合
前两种结合:对统计模型标准结果筛选,对可疑的标注结果采用规则方法进行歧义消解

4.基于DL
当作序列标注任务来做

LSTM+CRF
BiLSTM+CRF

1.4 推荐

相关文章:
https://github.com/sebastianruder/NLP-progress/blob/master/english/part-of-speech_tagging.md

标注数据集:
https://pan.baidu.com/s/1fW908EQmyMv0XB5i0DhVyQ

标注工具:

2 感谢公众号 AI小白入门

上一篇下一篇

猜你喜欢

热点阅读