Actor-Mimic

Actor Mimic

本文提出了Actor-Mimic,一个multitask和transfer learning方法,使用多个expert DQN指导训练一个可以在多个taskes上使用的单个policy network,并且可以将这些经验迁移到新的taskes上。

Policy Regression Objective

给定多个sources games $S_1, \cdots, S_N$,我们的第一个目标是获得一个能玩任何source games,并且尽可能和expert DQN性能相近的single multitask policy network。为了训练这样一个网络,使用$N$个expert DQN $E_1, \cdots, E_N$进行指导。一个可能的方法是定义student network和expert network之间$Q$值的均方根误差。因为expert values funcitons在不同的游戏之间可能变化很大,所以作者首先将$Q$值经过softmax变成了policies,softmax的输出都在$0$和$1$之间,所以可以提高训练的稳定性。我们可以把softmax看成让student更多的关注expert DQN在每个state选择的action(DQN选择的是Q值最大的action),经过softmax相当于让它更sharp了。
最后得到了一个actor,或者说是一个policy,它模仿了所有DQN experts的decisions。比如,在$Q$值上计算Boltzman分布:
$$\pi_{E_i} (a|s) = \frac{ e^{\tau^{-1} Q_{E_i}(s,a) } }{\sum_{a’\in A_{E_i} } e^{\tau^{-1} Q_{E_i}(s,a) } } \tag{1}$$
其中$\tau$是温度,$A_{E_i}$是expert DQN $E_i$使用的action space。给定$S_i$的一个state s,定义multitask network的policy objective是expert network’s policy和currnet multitask policcy的cross-entropy:
$$L^i_{policy}(\theta) = \sum_{a\in A_{E_i} }\pi_{E_i} (a|s) \log \pi_{AMN}(a|s;\theta) \tag{2}$$
其中$\pi_{AMN}(a|s;\theta) $是$\theta$参数化的multitask Actor Mimic Network policy。和Q-learning把自身当做target value相比,AMN得到了一个stable supervised training signal (expert network)指导 multitask network训练。
为了获得训练数据,可以sample expert network后者使用AMN action outputs生成trajectories。即使AMN还在学习过程中,也能得到好的结果。至少在AMN是linear function approximator时,可以证明AMN会收敛到expert policy。

Feature Regression Objective

除了对policy进行回归以外,还可以对feature进行回归。用$h_{AMN}(s)$和$h_{E_i}(s)$分别表示AMN和第$i$个expert network在state s处feature的hidden activation,他们两个的dimension不一定要相等。使用一个feature回归网络$f_i(h_{AMN}(s))$,预测$s$处$h_{E_i}(s)$到$h_{AMN}(s)$的映射,映射$f_i$的结构是随意的,可以使用以下的回归loss进行训练:
$$L^i_{FeatureRegression}(\theta, \theta_{f_i}) = || f_i(h_{AMN}(s;\theta); \theta_{f_i}) - h_{E_i}(s) ||^2_2 \tag{3}$$
其中$\theta$是AMN的参数,$\theta_{f_i}$是第$i$个特征回归网络的参数。使用这个loss训练,最终我们的目标是得到一个multitask network能够包含多个expert network的features。

Actor-Mimic Objective

将policy objective和feature objective结合在一起,就得到了actor-mimic objective:
$$ L^i_{ActorMimic}(\theta, \theta_{f_i}) = L^i_{policy}(\theta) + \beta L^i_{FeatureRegression}(\theta, \theta_{f_i}) \tag{4}$$
$\beta$用来控制两个objective的权重。直观上来说,我们可以把policy objective看成expert network教会AMN该怎么act(模仿expert的action),而feature objective类似于expert network教会AMN为什么这样act,模仿expert的思考过程(特征提取过程)。

Transfering Knowledge

通过优化actor-mimic objective,我们得到一个在所有source target上都表现不错的expert network,接下来我们可以把它迁移到相关的target task上。为了迁移到新的task上,首先移除掉AMN的final softmax layer,然后用AMN的参数初始化一个DQN在新的task上继续训练,接下来和标准的DQN训练方式一样。Multitask pretaining可以看成学习了related tasks中对于policies definition相当有效的特征,然后初始化DQN。如果source和target tasks很像的话,pretained features对于target task是相当有效的。

Multitask experiments

简介

Multitask任务中并不进行transfer,仅仅使用policy regression objective同时在multitask上训练一个AMN。

baselines

  • Multitask DQN: 使用多个games训练一个DQN,只有最后的full-connected layer不同。
  • Multitask Convolutions DQN: 使用多个games训练一个DQN,但是只共享convolutional layer,每个game都有自己的全连接层和softmax层。

网络架构:

32个步长为$4$的$8\times 8$filters
64个步长为$2$的$4\times 4$filters
64个步长为$1$的$3\times 3$filters
$512$ fully-connected units
$18$个actions
除了最后一层都有一个relu。

实验数据采集

AMN和DQN expert对比

DQN训练到收敛,使用的是训练到收敛过程中的max test reward,收敛过程中最后10个epochs的mean test reward。
AMN在每个source game上训练100个epochs, 每一个epoch是250000 frames,总共有2500万 frames。图中展示了AMN在100个epochs中最大的test reward和最后100个epochs的mean test reward。

AMN和MDQN,MCDQN对比

AMN,MDQN和MCDQN在每个source game上训练40个epochs, 每一个epoch是250000 frames,总共有2500万frames,每一个training epoch之后进行一个$125000$ frames的tesing epoch。最后图中展示了AMN,MDQN以及MCDQN在每个tesing epoch的test average episode rewrad。

Transfer experiments

小的AMN(和DQN expert架构相同)的AMN能够学习多个source tasks的knowledge,而大一些的AMN能够更容易的迁移。在transfer实验中,使用了比DQN expert更复杂的AMN model,能够同时玩13个source games。为了防止过拟合,AMN在每个source game上训练400万个frames。
然后用训练完的AMN当做新任务上DQN的初始化权重。仅仅使用policy regression objective的叫做AMN-policy,而使用feature和policy objective的叫做AMN-feature。将AMN-feature以及AMN-policy的结果和随机初始化的DQN baseline进行比较。
每隔4个traing epoches,每个training epoch后都有一个testing epoch,输出这4个epoches的average test reward。
使用的网络架构:
256个步长为$4$的$8\times 8$filters
512个步长为$2$的$4\times 4$filters
512个步长为$1$的$3\times 3$filters
512个步长为$1$的$3\times 3$filters
$2048$ fully-connected units
$1024$ fully-connected units
$18$个actions
除了最后一层都有一个relu。

AMN的细节

所有的AMN使用Adam优化器,有一个18-unit的output layer,每一个对应atari 18个actions中可能的一个,使用18个actions简化了不同游戏有不同的action subsets。训练一个特定的游戏时,mask那些not valid的actions,然后在valid actions上使用softmax。AMN每个game使用100000大小的replay memeory。
在feature regression objective中,设置$\beta$是$0.01$,设置$f_i$是第$i$个expert feature的线性投影。在训练过程中,AMN使用的$\epsilon$-greedy policy中$\epsilon$是常数$0.1$。在训练过程中,基于AMN而不是expert DQN选择actions。
在实验中使用的DQN,使用RMSProp优化,和nature-DQN的架构,超参数以及训练过程都一样。Replay memory总共有1000000 frames。

参考文献