Update README.md
This commit is contained in:
parent
e6175ef036
commit
9a69644146
|
@ -77,6 +77,12 @@ sentence|relation|head|head_type|head_offset|tail|tail_type|tail_offset
|
|||
见 [wiki](https://github.com/zjunlp/deepke/wiki)
|
||||
|
||||
|
||||
## 备注
|
||||
|
||||
使用语言预训练模型时,要提前下载好预训练好的参数,放到 `pretrained` 文件夹内。
|
||||
|
||||
另外数据量很小时,直接使用如12层的bert,效果并不理想,反而层数调低些收敛更快效果更好。可以将 bert `config.json` 文件中下 `num_hidden_layers` 参数调整到如3,6等层数。具体看训练的数据量大小。
|
||||
|
||||
## 后续工作
|
||||
|
||||
- [ ] 添加经典实体关系联合抽取模型
|
||||
|
|
Loading…
Reference in New Issue