文章目录
所解决的问题所采用的方法?自编码器lll-GAN强化学习取得的效果?参考资料论文题目:RL-GAN-Net: A Reinforcement Learning Agent Controlled GAN Network for Real-Time Point Cloud Shape Completion所解决的问题
用强化学习控制GAN
网络,以使得GAN
更快,更鲁棒。将其用于点云数据生成。全网第一次用RL
控制GAN
。通过数据驱动的方法填补三维数据中的数据缺失。
所采用的方法?
预训练阶段,训练一个自编码器,用于生成隐空间的表示,之后用这个去训练GAN
网络。强化学习智能体用于选择合适的zzz向量,去合成隐空间的表示。与之前的反向传播发现zzz向量不同,本文采用RL
的方法进行选择。
主要由三个模块组成:1. 自编码器;2. lll-GAN;3. 强化学习智能体(RL
)。
自编码器
自编码器用的损失函数如下:
dCH(P1,P2)=∑a∈P1minb∈P2∥a−b∥22+∑b∈P2mina∈P1∥a−b∥22d_{C H}\left(P_{1}, P_{2}\right)=\sum_{a \in P_{1}} \min _{b \in P_{2}}\|a-b\|_{2}^{2}+\sum_{b \in P_{2}} \min _{a \in P_{1}}\|a-b\|_{2}^{2}dCH(P1,P2)=a∈P1∑b∈P2min∥a−b∥22+b∈P2∑a∈P1min∥a−b∥22
其中P1P_{1}P1和P2P_{2}P2代表点云的输入和输出。
lll-GAN
结合GFV
来训练GAN
。
Chamfer loss:
输入点云数据PinP_{in}Pin和生成器和解码器输出数据E−1(G(z))E^{-1}(G(z))E−1(G(z))做loss
:
LCH=dCH(Pin,E−1(G(z)))L_{C H}=d_{C H}\left(P_{i n}, E^{-1}(G(z))\right)LCH=dCH(Pin,E−1(G(z)))
GFV loss:生成CFV
G(z)G(z)G(z)和输入点云E(Pin)E(P_{in})E(Pin)
LGFV=∥G(z)−E(Pin)∥22L_{G F V}=\left\|G(z)-E\left(P_{i n}\right)\right\|_{2}^{2}LGFV=∥G(z)−E(Pin)∥22
Discriminator loss判别器损失函数:
LD=−D(G(z))L_{D}=-D(G(z))LD=−D(G(z))
强化学习
强化学习用于快速选择GAN
生成器的输入zzz:
奖励函数定义为:
r=wCH⋅rCH+wGFV⋅rGFV+wD⋅rDr=w_{C H} \cdot r_{C H}+w_{G F V} \cdot r_{G F V}+w_{D} \cdot r_{D}r=wCH⋅rCH+wGFV⋅rGFV+wD⋅rD
其中 rCH=−LCHr_{CH}=-L_{CH}rCH=−LCH,rGFV=−lGFVr_{GFV}=-l_{GFV}rGFV=−lGFV,rD=−LDr_{D}=-L_{D}rD=−LD。智能体用DDPG
算法。
取得的效果?
参考资料
相似文献:
Panos Achlioptas, Olga Diamanti, Ioannis Mitliagkas, and Leonidas J. Guibas.Representation learning and adversarial generation of 3d point clouds. CoRR, abs/1707.02392, . (有提到用隐空间数据训练GAN会更稳定)。
相关GitHub
链接:
/lijx10/SO-Net/heykeetae/Self-Attention-GAN/sfujim/TD3