nlp-parser:一个用于依存句法分析的小工具-conll格

2022-08-24  本文已影响0人  田丰w

项目功能

分析中文文本的依存关系, 生成 conll 格式的中间文件, 以及本地 sqlite3 数据库文件, 方便统计各种 词, 词性 之间的不同依存关系频次

主要功能:

项目源码和编译包下载位置github

其实就是把 hanlp 封装了一下,以便于直接拿来用.

使用方法

生成依存关系数据

.
├── hanlp-data
│         └── data
│             ├── dictionary
│             ├── model
│             ├── README.url
│             └── version.txt
└── nlp-parser-1.0.0-jar-with-dependencies.jar
xxx@xxx:~$ java -jar nlp-parser-1.0.0-jar-with-dependencies.jar --help
usage: 用法: java -jar <this_file>.jar <options> files...
模型文件需要放在 ./hanlp-data/
 -c,--conll <conllFile>     中间结果coNLL文件输出路径. 默认: ./conll_output.txt
 -d,--database <dbFile>     结果写入的数据库路径. 默认: ./nlpparsed.sqlite3
 -h,--help                  显示帮助
 -r,--regex <filterRegex>   过滤无效字符的正则文件路径. 默认: ./filterRegex.txt

如:

java -jar nlp-parser-1.0.0-jar-with-dependencies.jar -r filterRegex.txt -c conll_output.txt -d nlpparsed.sqlite3
data/shentiyundongxunlian.txt data/tushouxunlian.txt data/yujia.txt

程序将

查看依存关系

在输出结果的 conll_output.txt 里, 找到要查看的句子,
粘贴到 https://urd2.let.rug.nl/~kleiweg/conllu/ 可以可视化

如复制下面的结果

# fileName = data/lz-data/shentiyundongxunlian.txt
# sent_id = 15
# text = 激活臀部肌群和核心肌群。
1   激活  激活  v   v   _   0   核心关系    _   _
2   臀部  臀部  n   n   _   3   定中关系    _   _
3   肌群  肌群  n   n   _   1   动宾关系    _   _
4   和   和   c   c   _   5   左附加关系   _   _
5   核心  核心  n   n   _   6   定中关系    _   _
6   肌群  肌群  n   n   _   3   并列关系    _   _
7   。   。   wp  w   _   1   标点符号    _   _

将得到下图


依存关系图示

二次开发

依赖包与模型数据包下载地址

依赖 hanlp 版本1.8.3
模型数据包兼容 data-for-1.7.5.zip md5=1d9e1be4378b2dbc635858d9c3517aaa

从源码打包

命令

mvn clean package -Dmaven.test.skip=true

其他

可视化网页源码conllu-viewer

上一篇 下一篇

猜你喜欢

热点阅读