Merge pull request #57 from iclementine/doc

add documentation
This commit is contained in:
Li Fuchen 2020-12-18 11:31:10 +08:00 committed by GitHub
commit d81df88173
No known key found for this signature in database
GPG Key ID: 4AEE18F83AFDEB23
22 changed files with 766 additions and 38 deletions

20
doc/Makefile Normal file
View File

@ -0,0 +1,20 @@
# Minimal makefile for Sphinx documentation
#
# You can set these variables from the command line, and also
# from the environment for the first two.
SPHINXOPTS ?=
SPHINXBUILD ?= sphinx-build
SOURCEDIR = source
BUILDDIR = build
# Put it first so that "make" without argument is like "make help".
help:
@$(SPHINXBUILD) -M help "$(SOURCEDIR)" "$(BUILDDIR)" $(SPHINXOPTS) $(O)
.PHONY: help Makefile
# Catch-all target: route all unknown targets to Sphinx using the new
# "make mode" option. $(O) is meant as a shortcut for $(SPHINXOPTS).
%: Makefile
@$(SPHINXBUILD) -M $@ "$(SOURCEDIR)" "$(BUILDDIR)" $(SPHINXOPTS) $(O)

35
doc/make.bat Normal file
View File

@ -0,0 +1,35 @@
@ECHO OFF
pushd %~dp0
REM Command file for Sphinx documentation
if "%SPHINXBUILD%" == "" (
set SPHINXBUILD=sphinx-build
)
set SOURCEDIR=source
set BUILDDIR=build
if "%1" == "" goto help
%SPHINXBUILD% >NUL 2>NUL
if errorlevel 9009 (
echo.
echo.The 'sphinx-build' command was not found. Make sure you have Sphinx
echo.installed, then set the SPHINXBUILD environment variable to point
echo.to the full path of the 'sphinx-build' executable. Alternatively you
echo.may add the Sphinx directory to PATH.
echo.
echo.If you don't have Sphinx installed, grab it from
echo.http://sphinx-doc.org/
exit /b 1
)
%SPHINXBUILD% -M %1 %SOURCEDIR% %BUILDDIR% %SPHINXOPTS% %O%
goto end
:help
%SPHINXBUILD% -M help %SOURCEDIR% %BUILDDIR% %SPHINXOPTS% %O%
:end
popd

64
doc/source/conf.py Normal file
View File

@ -0,0 +1,64 @@
# Configuration file for the Sphinx documentation builder.
#
# This file only contains a selection of the most common options. For a full
# list see the documentation:
# https://www.sphinx-doc.org/en/master/usage/configuration.html
# -- Path setup --------------------------------------------------------------
# If extensions (or modules to document with autodoc) are in another directory,
# add these directories to sys.path here. If the directory is relative to the
# documentation root, use os.path.abspath to make it absolute, like shown here.
#
# import os
# import sys
# sys.path.insert(0, os.path.abspath('.'))
# -- Project information -----------------------------------------------------
project = 'parakeet'
copyright = '2020, parakeet-developers'
author = 'parakeet-developers'
# The full version, including alpha/beta/rc tags
release = '0.2'
# -- General configuration ---------------------------------------------------
# Add any Sphinx extension module names here, as strings. They can be
# extensions coming with Sphinx (named 'sphinx.ext.*') or your custom
# ones.
extensions = [
'sphinx.ext.autodoc',
'sphinx.ext.viewcode',
"sphinx_rtd_theme",
'sphinx.ext.mathjax',
'numpydoc',
]
# Add any paths that contain templates here, relative to this directory.
templates_path = ['_templates']
# List of patterns, relative to source directory, that match files and
# directories to ignore when looking for source files.
# This pattern also affects html_static_path and html_extra_path.
exclude_patterns = []
# -- Options for HTML output -------------------------------------------------
# The theme to use for HTML and HTML Help pages. See the documentation for
# a list of builtin themes.
#
html_theme = "sphinx_rtd_theme"
# Add any paths that contain custom static files (such as style sheets) here,
# relative to this directory. They are copied after the builtin static files,
# so a file named "default.css" will overwrite the builtin "default.css".
html_static_path = ['_static']
source_suffix = ['.rst', '.md']
# -- Extension configuration -------------------------------------------------
numpydoc_show_class_members = False

20
doc/source/index.rst Normal file
View File

@ -0,0 +1,20 @@
.. parakeet documentation master file, created by
sphinx-quickstart on Thu Dec 17 20:01:34 2020.
You can adapt this file completely to your liking, but it should at least
contain the root `toctree` directive.
Welcome to parakeet's documentation!
====================================
.. toctree::
:maxdepth: 2
:caption: Contents:
Indices and tables
==================
* :ref:`genindex`
* :ref:`modindex`
* :ref:`search`

7
doc/source/modules.rst Normal file
View File

@ -0,0 +1,7 @@
parakeet
========
.. toctree::
:maxdepth: 4
parakeet

View File

@ -0,0 +1,29 @@
parakeet.audio package
======================
Submodules
----------
parakeet.audio.audio module
---------------------------
.. automodule:: parakeet.audio.audio
:members:
:undoc-members:
:show-inheritance:
parakeet.audio.spec\_normalizer module
--------------------------------------
.. automodule:: parakeet.audio.spec_normalizer
:members:
:undoc-members:
:show-inheritance:
Module contents
---------------
.. automodule:: parakeet.audio
:members:
:undoc-members:
:show-inheritance:

View File

@ -0,0 +1,29 @@
parakeet.data package
=====================
Submodules
----------
parakeet.data.batch module
--------------------------
.. automodule:: parakeet.data.batch
:members:
:undoc-members:
:show-inheritance:
parakeet.data.dataset module
----------------------------
.. automodule:: parakeet.data.dataset
:members:
:undoc-members:
:show-inheritance:
Module contents
---------------
.. automodule:: parakeet.data
:members:
:undoc-members:
:show-inheritance:

View File

@ -0,0 +1,29 @@
parakeet.datasets package
=========================
Submodules
----------
parakeet.datasets.common module
-------------------------------
.. automodule:: parakeet.datasets.common
:members:
:undoc-members:
:show-inheritance:
parakeet.datasets.ljspeech module
---------------------------------
.. automodule:: parakeet.datasets.ljspeech
:members:
:undoc-members:
:show-inheritance:
Module contents
---------------
.. automodule:: parakeet.datasets
:members:
:undoc-members:
:show-inheritance:

View File

@ -0,0 +1,37 @@
parakeet.frontend package
=========================
Submodules
----------
parakeet.frontend.phonectic module
----------------------------------
.. automodule:: parakeet.frontend.phonectic
:members:
:undoc-members:
:show-inheritance:
parakeet.frontend.punctuation module
------------------------------------
.. automodule:: parakeet.frontend.punctuation
:members:
:undoc-members:
:show-inheritance:
parakeet.frontend.vocab module
------------------------------
.. automodule:: parakeet.frontend.vocab
:members:
:undoc-members:
:show-inheritance:
Module contents
---------------
.. automodule:: parakeet.frontend
:members:
:undoc-members:
:show-inheritance:

View File

@ -0,0 +1,45 @@
parakeet.models package
=======================
Submodules
----------
parakeet.models.tacotron2 module
--------------------------------
.. automodule:: parakeet.models.tacotron2
:members:
:undoc-members:
:show-inheritance:
parakeet.models.transformer\_tts module
---------------------------------------
.. automodule:: parakeet.models.transformer_tts
:members:
:undoc-members:
:show-inheritance:
parakeet.models.waveflow module
-------------------------------
.. automodule:: parakeet.models.waveflow
:members:
:undoc-members:
:show-inheritance:
parakeet.models.wavenet module
------------------------------
.. automodule:: parakeet.models.wavenet
:members:
:undoc-members:
:show-inheritance:
Module contents
---------------
.. automodule:: parakeet.models
:members:
:undoc-members:
:show-inheritance:

View File

@ -0,0 +1,93 @@
parakeet.modules package
========================
Submodules
----------
parakeet.modules.attention module
---------------------------------
.. automodule:: parakeet.modules.attention
:members:
:undoc-members:
:show-inheritance:
parakeet.modules.audio module
-----------------------------
.. automodule:: parakeet.modules.audio
:members:
:undoc-members:
:show-inheritance:
parakeet.modules.cbhg module
----------------------------
.. automodule:: parakeet.modules.cbhg
:members:
:undoc-members:
:show-inheritance:
parakeet.modules.connections module
-----------------------------------
.. automodule:: parakeet.modules.connections
:members:
:undoc-members:
:show-inheritance:
parakeet.modules.conv module
----------------------------
.. automodule:: parakeet.modules.conv
:members:
:undoc-members:
:show-inheritance:
parakeet.modules.geometry module
--------------------------------
.. automodule:: parakeet.modules.geometry
:members:
:undoc-members:
:show-inheritance:
parakeet.modules.losses module
------------------------------
.. automodule:: parakeet.modules.losses
:members:
:undoc-members:
:show-inheritance:
parakeet.modules.masking module
-------------------------------
.. automodule:: parakeet.modules.masking
:members:
:undoc-members:
:show-inheritance:
parakeet.modules.positional\_encoding module
--------------------------------------------
.. automodule:: parakeet.modules.positional_encoding
:members:
:undoc-members:
:show-inheritance:
parakeet.modules.transformer module
-----------------------------------
.. automodule:: parakeet.modules.transformer
:members:
:undoc-members:
:show-inheritance:
Module contents
---------------
.. automodule:: parakeet.modules
:members:
:undoc-members:
:show-inheritance:

25
doc/source/parakeet.rst Normal file
View File

@ -0,0 +1,25 @@
parakeet package
================
Subpackages
-----------
.. toctree::
:maxdepth: 4
parakeet.audio
parakeet.data
parakeet.datasets
parakeet.frontend
parakeet.models
parakeet.modules
parakeet.training
parakeet.utils
Module contents
---------------
.. automodule:: parakeet
:members:
:undoc-members:
:show-inheritance:

View File

@ -0,0 +1,37 @@
parakeet.training package
=========================
Submodules
----------
parakeet.training.cli module
----------------------------
.. automodule:: parakeet.training.cli
:members:
:undoc-members:
:show-inheritance:
parakeet.training.default\_config module
----------------------------------------
.. automodule:: parakeet.training.default_config
:members:
:undoc-members:
:show-inheritance:
parakeet.training.experiment module
-----------------------------------
.. automodule:: parakeet.training.experiment
:members:
:undoc-members:
:show-inheritance:
Module contents
---------------
.. automodule:: parakeet.training
:members:
:undoc-members:
:show-inheritance:

View File

@ -0,0 +1,61 @@
parakeet.utils package
======================
Submodules
----------
parakeet.utils.checkpoint module
--------------------------------
.. automodule:: parakeet.utils.checkpoint
:members:
:undoc-members:
:show-inheritance:
parakeet.utils.display module
-----------------------------
.. automodule:: parakeet.utils.display
:members:
:undoc-members:
:show-inheritance:
parakeet.utils.internals module
-------------------------------
.. automodule:: parakeet.utils.internals
:members:
:undoc-members:
:show-inheritance:
parakeet.utils.layer\_tools module
----------------------------------
.. automodule:: parakeet.utils.layer_tools
:members:
:undoc-members:
:show-inheritance:
parakeet.utils.mp\_tools module
-------------------------------
.. automodule:: parakeet.utils.mp_tools
:members:
:undoc-members:
:show-inheritance:
parakeet.utils.scheduler module
-------------------------------
.. automodule:: parakeet.utils.scheduler
:members:
:undoc-members:
:show-inheritance:
Module contents
---------------
.. automodule:: parakeet.utils
:members:
:undoc-members:
:show-inheritance:

112
docs/config_cn.md Normal file
View File

@ -0,0 +1,112 @@
# 实验配置
本节主要讲述 parakeet 的推荐的配置实验的方式,以及我们做出这样的选择的原因。
## 配置选项的内容
深度学习实验常常有很多选项可配置。这些配置大概可以被分为几类:
1. 数据源以及数据处理方式配置;
2. 实验结果保存路径配置;
3. 数据预处理方式配置;
4. 模型结构和超参数配置;
5. 训练过程配置。
虽然这些配置之间也可能存在某些重叠项,比如数据预处理部分的配置可能就和模型配置有关。比如说 mel 频谱的维数,既可以理解为模型配置的一部分,也可以理解为数据处理配置的一部分。但大体上,配置文件是可以分成几个部分的。
## 常见配置文件格式
常见的配置文件的格式有 `ini`, `yaml`, `toml`, `json` 等。
`ini`
优点:简单,支持字符串插值等操作。
缺点:仅支持两层结构,值不带类型信息,解析的时候需要手动 cast。
`yaml`
优点:格式简洁,值有类型,解析的时候一般不需手动 cast支持写注释。
缺点:语法规范复杂。
`toml`
和 yaml 类似
`json`
优点:格式简单,
缺点:标记符号太多,可读性不佳,手写也容易出错。不支持注释。
出于语言本身的表达能力和可读性,我们选择 yaml, 但我们会尽可能使配置文件简单。
1. 类型上,只使用字符串,整数,浮点数,布尔值;
2. 结构嵌套上,尽可能只使用两层或更浅的结构。
## 配置选项和命令行参数处理
对于深度学习实验,有部分配置是经常会发生改变的,比如数据源以及保存实验结果的路径,或者加载的 checkpoint 的路径等。对于这些配置,更好的做法是把它们实现为命令行参数。
其余的不经常发生变动的参数,推荐将其写在配置文件中,我们推荐使用 `yaml` 作为配置文件,因为它允许添加注释,并且更加人类可读。
当然把所有的选项都有 argparse 来处理也可以,但是对于选项丰富的深度学习实验来说,都使用 argparse 会导致代码异常冗长。
但是需要注意的是,同时使用配置文件和命令行解析工具的时候,如果不做特殊处理,配置文件所支持的选项并不能显示在 argparse.ArgumentParser 的 usage 和 help 信息里。这主要是配置文件解析和 argparse 在设计上的一些固有的差异导致的。
通过一些手段把配置所支持的选项附加到 ArgumentParser 固然可以弥补这点,但是这会存在一些默认值的优先级哪一方更高的问题,是默认配置的优先级更高,比如还是 ArgumentParser 中的默认值优先级更高。
因此我们选择不把配置所支持的选项附加到 ArgumentParser而是分开处理两部分。
## 实践
我们选择 yacs 搭配 argparse 作为配置解析工具,为 argparse 命令行新增一个选项 `--config` 来传入配置文件。yacs 有几个特点:
1. 支持 yaml 格式的配置文件(亦即支持配置层级嵌套以及有类型的值);
2. 支持 config 的增量覆盖,以及由命令行参数覆盖配置文件等灵活的操作;
3. 支持 `.key` 递归访问属性,比字典式的 `["key"]` 方便;
我们推荐把默认的配置写成 python 代码examples 中的每个例子都有一个 config.py里面提供了默认的配置并且带有注释。而如果用户需要覆盖部分配置则仅需要提供想要覆盖的部分配置即可而不必提供一个完整的配置文件。这么做的考虑是
1. 仅提供需要覆盖的选项也是许多软件配置的标准方式。
2. 对于同一个模型的两次实验,往往仅仅只有很少的配置发生变化,仅提供增量的配置比提供完整的配置更容易让用户看出两次实验的配置差异。
3. 运行脚本的时候可以不传 `--config` 参数,而以默认配置运行实验,简化运行脚本。
当新增实验的时候,可以参考 examples 里的例子来写默认配置文件。
除了可以通过 `--config` 命令行参数来指定用于覆盖的配置文件。另外,我们还可以通过新增一个 `--opts` 选项来接收 ArgumentParser 解析到的剩余命令行参数。这些参数将被用于进一步覆盖配置。使用方式是 `--opts key1 value1 key2 value2 ...`,即以空格分割键和值,比如`--opts training.lr 0.001 model.encoder_layers 4`。其中的键是配置中的键名,对于嵌套的选项,其键名以 `.` 连接。
## 默认的 ArgumentParser
我们提供了默认的 ArgumentParser参考 `parakeet/training/cli.py`, 它实现了上述的功能。它包含极简的命令行选项,只有 `--config`, `--data`, `--output`, `--checkpoint_path`, `--device`, `--nprocs``--opts` 选项。
这是一个深度学习基本都需要的一些命令行选项,因此当新增实验的时候,可以直接使用这个 ArgumentParser当有超出这个范围的命令行选项时也可以再继续新增。
1. `--config``--opts` 用于支持配置文件解析,而配置文件本身处理了每个实验特有的选项;
2. `--data``--output` 分别是数据集的路径和训练结果的保存路径(包含 checkpoints/ 文件夹,文本输出结果以及可视化输出结果);
3. `--checkpoint_path` 用于在训练前加载某个 checkpoint, 当需要从某个特定的 checkpoint 加载继续训练。另外,在不传 `--checkpoint_path` 的情况下,如果 `--output` 下的 checkpoints/ 文件夹中包含了训练的结果,则默认会加载其中最新的 checkpoint 继续训练。
4. `--device``--nprocs` 指定了运行方式,`--device` 指定运行设备类型,是在 cpu 还是 gpu 上运行。`--nprocs` 指的是用多少个进程训练,如果 `nprocs` > 1 则意味着使用多进程并行训练。(注:目前只支持 gpu 多卡多进程训练。)
使用帮助信息如下:
```text
usage: train.py [-h] [--config FILE] [--data DATA_DIR] [--output OUTPUT_DIR]
[--checkpoint_path CHECKPOINT_PATH] [--device {cpu,gpu}]
[--nprocs NPROCS] [--opts ...]
optional arguments:
-h, --help show this help message and exit
--config FILE path of the config file to overwrite to default config
with.
--data DATA_DIR path to the datatset.
--output OUTPUT_DIR path to save checkpoint and log. If not provided, a
directory is created in runs/ to save outputs.
--checkpoint_path CHECKPOINT_PATH
path of the checkpoint to load
--device {cpu,gpu} device type to use, cpu and gpu are supported.
--nprocs NPROCS number of parallel processes to use.
--opts ... options to overwrite --config file and the default
config, passing in KEY VALUE pairs
```

75
docs/experiment_cn.md Normal file
View File

@ -0,0 +1,75 @@
# 实验流程
实验中有不少细节需要注意,比如模型的保存和加载,定期进行验证,文本 log 和 可视化 log保存配置文件等另外对于不同的运行方式还有额外的处理这些代码可能比较繁琐但是对于追踪代码变化对结果的影响以及 debug 都非常重要。为了减少写这部分代码的成本,我们提供了不少通用的辅助代码,比如用于保存和加载,以及可视化的代码,可供实验代码直接使用。
而对于整个实验过程,我们提供了一个 ExperimentBase 类,它是在模型和实验开发的过程抽象出来的训练过程模板,可以作为具体实验的基类使用。相比 chainer 中的 Trainer 以及 keras 中的 Model.fit 而言ExperimentBase 是一个相对低层级的 API。它是作为基类来使用用户仍然需要实现整个训练过程也因此可以自由控制许多东西而不是作为一种组合方式来使用用户只需要提供模型数据集评价指标等就能自动完成整个训练过程。
前者的方式并不能节省很多代码量,只是以一种标准化的方式来组织代码。后者的方式虽然能够节省许多代码量,但是把如何组成整个训练过程的方式对用户隐藏了。如果需要为标准的训练过程添加一些自定义行为,则必须通过 extension/hook 等方式来实现,在一些固定的时点加入一些自定义行为(比如 iteration 开始、结束时epoch 开始、结束时,整个训练流程开始、结束时)。
通过 extension/hook 之类的方式来为训练流程加入自定义行为,往往存在一些 access 的限制。extension/hook 一般是通过 callable 的形式来实现,但是这个 callable 可访问的变量往往是有限的,比如说只能访问 model, optimzier, dataloader, iteration, epoch, metric 等,如果需要访问其他的中间变量,则往往比较麻烦。
此外组合式的使用方式往往对几个组件之间传输数据的协议有一些预设。一个常见的预设是dataloader 产生的 batch 即是 model 的输入。在简单的情况下,这样大抵是没有问题的,但是也存在一些可能,模型需要除了 batch 之外的输入。令一个常见的预设是criterion 仅需要 model 的 input 和 output 就能计算 loss, 但这么做其实存在 overkill 的可能,某些情况下,不需要 input 和 output 的全部字段就能计算 loss如果为了满足协议而把 criterion 的接口设计成一样的,存在输出不必要的参数的问题。
## ExperimentBase 的设计
因此我们选择了低层次的接口,用户仍然可以自由操作训练过程,而只是对训练过程做了粗粒度的抽象。可以参考 [ExperimentBase](parakeet/training/experiment.py) 的代码。
继承 ExperimentBase 写作自己的实验类的时候,需要遵循一下的一些规范:
1. 包含 `.model`, `.optimizer`, `.train_loader`, `.valid_loader`, `.config`, `.args` 等属性。
2. 配置需要包含一个 `.training` 字段, 其中包含 `valid_interval`, `save_interval``max_iteration` 几个键. 它们被用作触发验证,保存 checkpoint 以及停止训练的条件。
3. 需要实现四个方法 `train_batch`, `valid`, `setup_model` and `setup_dataloader`。`train_batch` 是在一个 batch 的过程,`valid` 是在整个验证数据集上执行一次验证的过程,`setup_model` 是初始化 model 和 optimizer 的过程,其他的模型构建相关的代码也可以放在这里,`setup_dataloader` 是 train_loader 和 valid_loader 的构建过程。
实验的初始化过程如下, 包含了创建模型优化器数据迭代器准备输出目录logger 和可视化,保存配置的工作,除了 `setup_dataloader``self.setup_model` 需要自行实现,其他的几个方法都已有标准的实现。
```python
def __init__(self, config, args):
self.config = config
self.args = args
def setup(self):
paddle.set_device(self.args.device)
if self.parallel:
self.init_parallel()
self.setup_output_dir()
self.dump_config()
self.setup_visualizer()
self.setup_logger()
self.setup_checkpointer()
self.setup_dataloader()
self.setup_model()
self.iteration = 0
self.epoch = 0
```
使用的时候只要一下的代码即可配置好一次实验:
```python
exp = Experiment(config, args)
exp.setup()
```
整个训练流程可以表示如下:
```python
def train(self):
self.new_epoch()
while self.iteration < self.config.training.max_iteration:
self.iteration += 1
self.train_batch()
if self.iteration % self.config.training.valid_interval == 0:
self.valid()
if self.iteration % self.config.training.save_interval == 0:
self.save()
```
使用时只需要执行如下代码即可开始实验。
```python
exp.run()
```

View File

@ -37,6 +37,10 @@ Dataset --(transform)--> Dataset --+
当开发新的模型的时候,开发这需要考虑拆分模块的可行性,以及模块的通用程度,把它们分置于合适的目录。
## 配置实验
我们使用 yacs 和 argparse 分别处理配置文件解析和命令行参数解析。关于配置的推荐方式,参考 [实验配置](./config_cn.md).
## 训练流程
训练流程一般就是多次训练一个循环体。典型的循环体包含如下的过程:
@ -46,34 +50,27 @@ Dataset --(transform)--> Dataset --+
3. 神经网络的 forward/backward 计算;
4. 参数更新;
5. 符合一定条件时,在验证数据集上评估模型;
6. 写日志,可视化,保存中间结果;
6. 写日志,可视化,以及在某些情况下保存必要的中间结果;
7. 保存模型和优化器的状态。
`数据处理` 一节包含了 1 和 2, 模型和优化器包含了 3 和 4. 那么 5,6,7 是训练流程主要要完成的事情。为了使训练循环体简洁清晰,推荐将模型的保存和加载,模型评估,写日志以及可视化等功能都实现成函数,尽管很多情况下,它们可能需要访问很多局部变量。我们也正在考虑使用一个 Experiment 或者 Trainer 类来规范化这些训练循环体的写法。这样可以把一些需要被许多函数访问的变量作为类内的变量,可以使代码简洁而不至于引入太多的全局变量。
`数据处理` 包含了数据集以及 batch_function 的定义, 模型和优化器包含了模型的 forward/backward 计算的定义。而在模型和数据都准备好了,我们需要把这些组织起来,完成实验代码。
训练流程的组装,可以参考 [实验流程](./experiment_cn.md).
## 实验模板
实验代码一般以如下的方式组织:
```text
├── configs/ (实验配置)
├── data.py (Dataset, DataLoader 等的定义)
├── README.md (实验的帮助信息)
├── config.py (默认配置)
├── preprocess.py (数据预处理脚本)
├── data.py (Dataset, batch_function 等的定义)
├── synthesis.py (用于生成的代码)
├── train.py (用于训练的代码)
└── utils.py (其他必要的辅助函数)
```
## 配置实验
深度学习实验常常有很多选项可配置。这些配置大概可以被分为几类:
1. 数据源以及数据处理方式配置;
2. 实验结果保存路径配置;
3. 数据预处理方式配置;
4. 模型结构和超参数配置;
5. 训练过程配置。
这些配置之间也可能存在某些重叠项,比如数据预处理部分的配置可能就和模型配置有关。比如说 mel 频谱的维数。
有部分配置是经常会发生改变的,比如数据源以及保存实验结果的路径,或者加载的 checkpoint 的路径等。对于这些配置,更好的做法是把它们实现为命令行参数。其余的不经常发生变动的参数,推荐将其写在配置文件中,我们推荐使用 `yaml` 作为配置文件,因为它允许添加注释,并且更加人类可读。
在这个软件源中包含了几个例子,可以在 [Parakeet/examples](../examples) 中查看。这些实验被作为样例提供给用户,可以直接运行。同时也欢迎用户添加新的模型和实验并为 `Parakeet` 贡献代码。

View File

@ -33,8 +33,7 @@ __all__ = ["TransformerTTS", "TransformerTTSLoss"]
# Transformer TTS's own implementation of transformer
class MultiheadAttention(nn.Layer):
"""
Multihead scaled dot product attention with drop head. See
"""Multihead scaled dot product attention with drop head. See
[Scheduled DropHead: A Regularization Method for Transformer Models](https://arxiv.org/abs/2004.13342)
for details.

View File

@ -25,22 +25,34 @@ def scaled_dot_product_attention(q,
mask=None,
dropout=0.0,
training=True):
"""
scaled dot product attention with mask. Assume q, k, v all have the same
leader dimensions(denoted as * in descriptions below). Dropout is applied to
attention weights before weighted sum of values.
Args:
q (Tensor): shape(*, T_q, d), the query tensor.
k (Tensor): shape(*, T_k, d), the key tensor.
v (Tensor): shape(*, T_k, d_v), the value tensor.
mask (Tensor, optional): shape(*, T_q, T_k) or broadcastable shape, the
mask tensor, 0 correspond to padding. Defaults to None.
"""Scaled dot product attention with masking.
Returns:
(out, attn_weights)
out (Tensor): shape(*, T_q, d_v), the context vector.
attn_weights (Tensor): shape(*, T_q, T_k), the attention weights.
Assume that q, k, v all have the same leading dimensions (denoted as * in
descriptions below). Dropout is applied to attention weights before
weighted sum of values.
Parameters
-----------
q: Tensor [shape=(*, T_q, d)]
the query tensor.
k: Tensor [shape=(*, T_k, d)]
the key tensor.
v: Tensor [shape=(*, T_k, d_v)]
the value tensor.
mask: Tensor, [shape=(*, T_q, T_k) or broadcastable shape], optional
the mask tensor, zeros correspond to paddings. Defaults to None.
Returns
----------
out: Tensor [shape(*, T_q, d_v)]
the context vector.
attn_weights [Tensor shape(*, T_q, T_k)]
the attention weights.
"""
d = q.shape[-1] # we only support imperative execution
qk = paddle.matmul(q, k, transpose_y=True)

View File

@ -0,0 +1,2 @@
from parakeet.training.cli import *
from parakeet.training.experiment import *

View File

@ -25,6 +25,7 @@ from collections import defaultdict
import parakeet
from parakeet.utils import checkpoint, mp_tools
__all__ = ["ExperimentBase"]
class ExperimentBase(object):
"""
@ -41,6 +42,7 @@ class ExperimentBase(object):
Feel free to add/overwrite other methods and standalone functions if you need.
Examples:
--------
def main_sp(config, args):

View File

@ -56,15 +56,13 @@ setup_info = dict(
'unidecode',
'numba==0.47.0',
'tqdm==4.19.8',
'llvmlite==0.31.0',
'matplotlib',
'visualdl>=2.0.1',
'scipy',
'ruamel.yaml',
'pandas',
'sox',
'soundfile',
'llvmlite==0.31.0',
'opencc',
'g2p_en',
'g2pM',
'yacs',