update readme

This commit is contained in:
tlk-dsg 2021-10-24 14:18:09 +08:00
parent 74efd194bf
commit 077ef78cd6
4 changed files with 4 additions and 4 deletions

View File

@ -35,7 +35,7 @@ git clone git@github.com:zjunlp/DeepKE.git
- `attribute.csv`:存放属性种类
- 开始训练:```python run.py``` (训练所用到参数都在conf文件夹中修改即可)
- 开始训练:```python run.py``` (训练所用到参数都在conf文件夹中修改即可使用lm时可修改'lm_file'使用下载至本地的模型)
- 每次训练的日志保存在 `logs` 文件夹内,模型结果保存在 `checkpoints` 文件夹内。

View File

@ -3,7 +3,7 @@ model_name: lm
# 当使用预训练语言模型时,该预训练的模型存放位置
# lm_name = 'bert-base-chinese' # download usage
#lm_file: 'pretrained'
lm_file: '/home/yhy/transformers/bert-base-chinese'
lm_file: 'bert-base-chinese'
# transformer 层数,初始 base bert 为12层
# 但是数据量较小时调低些反而收敛更快效果更好

View File

@ -35,7 +35,7 @@ git clone git@github.com:zjunlp/DeepKE.git
- `relation.csv`:存放关系种类
- 开始训练:```python run.py``` (训练所用到参数都在conf文件夹中修改即可)
- 开始训练:```python run.py``` (训练所用到参数都在conf文件夹中修改即可使用lm时可修改'lm_file'使用下载至本地的模型)
- 每次训练的日志保存在 `logs` 文件夹内,模型结果保存在 `checkpoints` 文件夹内。

View File

@ -3,7 +3,7 @@ model_name: lm
# 当使用预训练语言模型时,该预训练的模型存放位置
# lm_name = 'bert-base-chinese' # download usage
#lm_file: 'pretrained'
lm_file: '/home/yhy/transformers/bert-base-chinese'
lm_file: 'bert-base-chinese'
# transformer 层数,初始 base bert 为12层
# 但是数据量较小时调低些反而收敛更快效果更好