优雅の使用transformer系列之gpt2-chitchat

2020-07-21  本文已影响0人  colin_gao

前言

 目前来说gpt2在生成式这块效果还是比较突出的。在尝试 gpt2-chitchat 这个项目的时候,聊得挺好,首先感谢作者的贡献,好像闲聊数据还@了我。但是感觉代码这块还不够优雅,所以就基于pytorch-lightning重写了下。

gpt2-chitchat

 代码传送:gpt2-chitchat-pl
 关于模型介绍、效果展示可以直接访问原作者的README.md。我重写之后有几个参数这里说明下吧:

 当你设定好了对应的参数后就可以重头训练或者微调模型了

python train.py --train_mmi=False --use_pretrain=False
python train.py --train_mmi=False --use_pretrain=True --dialogue_model_path=/path/to/dialogue_pre_model
python train.py --train_mmi=True --use_pretrain=False
python train.py --train_mmi=True --use_pretrain=True --mmi_model_path=/path/to/mmi_pre_model

上面是训练模型的参数和命令。至于消费模型的代码是run_interact.py,对应的参数有:

结束语

 具体的细节可以查看和调试代码,感觉水了一篇文章。无论是dialogue model还是mmi model模型用的都是seq2seq,只不过输入不一样,至于多轮也就是把history用[SEP]拼接了一下,mmi将语料做了个翻转,就酱(可能这就是使用框架带来的便利吧,减少了自己的关注点)。本来想写一篇关于ner的,也是没啥好说的,所以可以直接看代码吧run_ner_pl.py,会存在个问题,因为是直接使用的token classification,换成crf是否会好点。

上一篇 下一篇

猜你喜欢

热点阅读