700字范文,内容丰富有趣,生活中的好帮手!
700字范文 > 【RL-GAN-Net】强化学习控制GAN网络 用于实时点云形状的补全。

【RL-GAN-Net】强化学习控制GAN网络 用于实时点云形状的补全。

时间:2020-11-13 10:03:00

相关推荐

【RL-GAN-Net】强化学习控制GAN网络 用于实时点云形状的补全。

文章目录

所解决的问题所采用的方法?自编码器lll-GAN强化学习取得的效果?参考资料论文题目RL-GAN-Net: A Reinforcement Learning Agent Controlled GAN Network for Real-Time Point Cloud Shape Completion

所解决的问题

用强化学习控制GAN网络,以使得GAN更快,更鲁棒。将其用于点云数据生成。全网第一次用RL控制GAN。通过数据驱动的方法填补三维数据中的数据缺失。

所采用的方法?

预训练阶段,训练一个自编码器,用于生成隐空间的表示,之后用这个去训练GAN网络。强化学习智能体用于选择合适的zzz向量,去合成隐空间的表示。与之前的反向传播发现zzz向量不同,本文采用RL的方法进行选择。

主要由三个模块组成:1. 自编码器;2. lll-GAN;3. 强化学习智能体(RL)。

自编码器

自编码器用的损失函数如下:

dCH(P1,P2)=∑a∈P1min⁡b∈P2∥a−b∥22+∑b∈P2min⁡a∈P1∥a−b∥22d_{C H}\left(P_{1}, P_{2}\right)=\sum_{a \in P_{1}} \min _{b \in P_{2}}\|a-b\|_{2}^{2}+\sum_{b \in P_{2}} \min _{a \in P_{1}}\|a-b\|_{2}^{2}dCH​(P1​,P2​)=a∈P1​∑​b∈P2​min​∥a−b∥22​+b∈P2​∑​a∈P1​min​∥a−b∥22​

其中P1P_{1}P1​和P2P_{2}P2​代表点云的输入和输出。

lll-GAN

结合GFV来训练GAN

Chamfer loss:

输入点云数据PinP_{in}Pin​和生成器和解码器输出数据E−1(G(z))E^{-1}(G(z))E−1(G(z))做loss

LCH=dCH(Pin,E−1(G(z)))L_{C H}=d_{C H}\left(P_{i n}, E^{-1}(G(z))\right)LCH​=dCH​(Pin​,E−1(G(z)))

GFV loss:生成CFVG(z)G(z)G(z)和输入点云E(Pin)E(P_{in})E(Pin​)

LGFV=∥G(z)−E(Pin)∥22L_{G F V}=\left\|G(z)-E\left(P_{i n}\right)\right\|_{2}^{2}LGFV​=∥G(z)−E(Pin​)∥22​

Discriminator loss判别器损失函数:

LD=−D(G(z))L_{D}=-D(G(z))LD​=−D(G(z))

强化学习

强化学习用于快速选择GAN生成器的输入zzz:

奖励函数定义为:

r=wCH⋅rCH+wGFV⋅rGFV+wD⋅rDr=w_{C H} \cdot r_{C H}+w_{G F V} \cdot r_{G F V}+w_{D} \cdot r_{D}r=wCH​⋅rCH​+wGFV​⋅rGFV​+wD​⋅rD​

其中 rCH=−LCHr_{CH}=-L_{CH}rCH​=−LCH​,rGFV=−lGFVr_{GFV}=-l_{GFV}rGFV​=−lGFV​,rD=−LDr_{D}=-L_{D}rD​=−LD​。智能体用DDPG算法。

取得的效果?

参考资料

相似文献

Panos Achlioptas, Olga Diamanti, Ioannis Mitliagkas, and Leonidas J. Guibas.Representation learning and adversarial generation of 3d point clouds. CoRR, abs/1707.02392, . (有提到用隐空间数据训练GAN会更稳定)。

相关GitHub链接

/lijx10/SO-Net/heykeetae/Self-Attention-GAN/sfujim/TD3

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。