深度自然语言处理机器学习与数据挖掘NLP&NLU

(四)序列标注——实体识别BERT-BLSTM-CRF(下)

2018-12-05  本文已影响2748人  天生smile

        前面说的是ner的经典算法以及今年的一些比较好的工作,最近bert模型刷新了NLP的绝大部分任务,可谓是一夜之间火爆了整个NLP界,这里我简单记录下bert在NER上的使用,至于原理部分我后续的博客会做详细的说明。这里先暂时理解成bert同样也是产生embedding的工具就可以,只不过这个embedding比Word2vec的embedding要厉害。

        ok 我们先设定下框架。

        框架很简单,就是bert+Bilstm-CRF,前面讲了bert就是用来产生词向量的,所以如果抛开这个原理,这个升级版本的NER模型就很简单了。

这里先给出代码链接。BERT是Google提出的基于tensorflow1.11.0的代码,里面用了高级API,所以这篇博客我主要在代码层面讲一下bert的应用。原理部分我也做了详细的介绍,请戳

bert的官方版本tensorflowpytorch版本

bert官方版本的代码写的非常好(虽然很难懂哈),这里借NER这个应用简单学习下:

1.数据准备

这里还是以中文数据为例,数据的格式还是和之前一样:

我们最终需要把数据转换成bert论文中的形式:

代码中的数据就是转成这样,这部分是纯工程问题,就不详细介绍    :

接下来就讲一下这个高级API的用法:

1.代码中将所有数据封装成record的形式:

注意这里是对每一组数据进行逐条封装

2.读取record 数据,组成batch

这里主要也是通过回调函数完成

input_file就是保存的record文件,然后用d = tf.data.TFRecordDataset(input_file)读数据,这样就得到了一个batch的数据。

然后定义estimator封装器

有了这个封装器训练、验证测试都比较方便(难得读懂哟),这里的model_fn就是模型定义的的回调函数。

3.定义模型

        大致思路:这个model_fn_builder是为了构造代码中默认调用的model_fn函数服务的,为了使用其他的参数,只不过model_fn函数的默认参数只有features, labels, mode, params,这四个,所以在model_fn包裹了一层model_fn_builder

注意这个init_checkpoint就是下载的模型,接下来我们看一下模型的构造即model_fn函数,以及他是如何使用init_checkpoint:

    - 在这个回调函数中,第一步就是创建模型,这一步其实和之前的tensorflow的写法思路一样,都是在完成“图”这个部分,

那么creat_model里有啥呢,不看也知道,第一步就是拿到bert的输出了,也就是embedding = model.get_sequence_output(),后面就是在创造blstm_crf这块就不再讲了,到这儿是不是完了呢,显然不是,因为我们只是把图建完了,bert的预训练的参数还没有喂给模型呢,接下来就是create_model后面一部分,加载模型预训练参数:

首先读取在create_model中的所有需要训练的参数,因为init_checkpoint中的参数对应的是bert的,所以要把训练参数分开,只能初始化bert的部分,同时bert论文中也提到了fine-tune,是不是这样,我们把参数打印出来看看就知道了:

bert模型的部分参数 lstm-crf模型参数

assignment_map是一个字典,里面存的就是需要create_model中需要初始化的变量,也就是bert的部分,然后调用tf.train.init_from_checkpoint(init_checkpoint, assignment_map)来加载模型,看看恢复出来的参数:

最后就是优化器的定义了:

实验结果:红框是总的实验精度,黄框是每个类别的结果

梳理完了代码,现在来总结下这个estimator API是怎么用的(看一堆基础教程,真不如看大牛写的代码来的快哈!)

1.首先把数据存成record

2.创建estimator 对象,对象里要传入创建model的回调函数model_fn

        model_fn的用法:

            - 参数model_fn(features, labels, mode, params) 这个是固定的,如果需要额外参数就在外面在包一层回调函数

                    - features就是record解析后的结果

            - 调用数据并送入创建的模型

3.创建优化器并使用tf.contrib.tpu.TPUEstimatorSpec封装优化器和loss

4.创建读取record并生成batch的回调函数

   5.训练模型

上述仅仅只是一个代码的分析,详细使用请看我的github吧!!!

上一篇下一篇

猜你喜欢

热点阅读