• 回答数

    5

  • 浏览数

    114

林hui杨65928
首页 > 毕业论文 > 生成对抗网络毕业论文

5个回答 默认排序
  • 默认排序
  • 按时间排序

沈阳硅藻泥

已采纳

训练WGAN的时候,有几个方面可以调参:   a. 调节Generator loss中GAN loss的权重。 G loss和Gan loss在一个尺度上或者G loss比Gan loss大一个尺度。但是千万不能让Gan loss占主导地位, 这样整个网络权重会被带偏。   b. 调节Generator和Discrimnator的训练次数比。一般来说,Discrimnator要训练的比Genenrator多。比如训练五次Discrimnator,再训练一次Genenrator(WGAN论文 是这么干的)。   c. 调节learning rate,这个学习速率不能过大。一般要比Genenrator的速率小一点。   d. Optimizer的选择不能用基于动量法的,如Adam和momentum。可使用RMSProp或者SGD。   e. Discrimnator的结构可以改变。如果用WGAN,判别器的最后一层需要去掉sigmoid。但是用原始的GAN,需要用sigmoid,因为其loss function里面需要取log,所以值必须在[0,1]。这里用的是邓炜的critic模型当作判别器。之前twitter的论文里面的判别器即使去掉了sigmoid也不好训练。   f. Generator loss的误差曲线走向。因为Generator的loss定义为:    G_loss = (D_fake)     Generator_loss = gen_loss + lamda*G_loss 其中gen_loss为Generator的loss,G_loss为Discrimnator的loss,目标是使Generator_loss不断变小。所以理想的Generator loss的误差曲线应该是不断往0靠的下降的抛物线。   g. Discrimnator loss的误差曲线走向。因为Discrimnator的loss定义为:       D_loss = (D_real) - (D_fake) 这个是一个和Generator抗衡的loss。目标就是使判别器分不清哪个是生成器的输出哪个是真实的label。所以理想的Discrimnator loss的误差曲线应该是最终在0附近振荡,即傻傻分不清。换言之,就是判别器有50%的概率判断你是真的,50%概率判断你是假的。   h. 之前的想法是就算判别器不训练,那么它判断这个图片是真是假的概率都是50%,那D_loss = (D_real) - (D_fake)不就已经在0附近了吗? 其实不是这样的。如果是wgan的话,判别器的输出是一个负无穷到正无穷的数值,那么要让它对两个不同的输入产生相似的输出是很难的。同理,对于gan的话,判别器的输出是介于[0,1]之间的,产生两个相似的输出也是很困难的。如果判别器的输出是0或者1的话,那就是上面说的情况。所以,网络要经过学习,使得 输出尽可能相似,那就达到了傻傻分不清的状态了。

97 评论

我是怖怖

关于GAN生成式对抗网络中判别器的输出的问题,这个问题我们不知道也不憧,只有到百度网上去查一下就可以告诉给你,都可以查到内容是什么,只要字别太少圄绕提问来回答,基本上都是优质回答,我们也弄不清是什么玩意,好了,只有憧的人才知道,谢谢!

350 评论

小宝cute

楼主问题解决了吗 我也有同样问题 求教 爱您

151 评论

扬帆飘舟

...摘要生成式对抗网络GAN(Generative adversarial networks)目前已经成为人工智能学界一个热门的研究方向.GAN的基本思想源自博弈论的二人零和博弈,由一个生成器和一个判别器构成,通过对抗学习的方式来训练.目的是估测数据样本的潜在分布并生成新的数据样本.在图像和视觉计算、语音和语言处理、信息安全、棋类比赛等领域,GAN正在被广泛研究,具有巨大的应用前景.本文概括了GAN的研究进展,并进行展望.在总结了GAN的背景、理论与实现模型、应用领域、优缺点及发展趋势之后,本文还讨论了GAN与平行智能的关系,认为GAN可以深化平行系统的虚实互动、交互一体的理念,特别是计算实验的思想,为ACP(Artificial societies,computational experiments,and parallel execution)理论提供了十分具体和丰富的算法支持.更多出版源《自动化学报》 , 2017 , 43 (3) :321-332

107 评论

哆啦C梦的梦

上面这张图很好的很好的阐述了生成式对抗网络的结构~~ 博弈论

此图给出了生成性对抗网络的概述。目前最重要的是要理解GAN是使两个网络协同工作的一种方式 - 而Generator和Discriminator都有自己的架构。为了更好地理解这个想法的来源,我们需要回忆一些基本的代数并问自己 - 我们怎么能欺骗一个比大多数人更好地分类图像的神经网络?

在我们详细描述GAN之前,让我们看一下类似的主题。给定一个训练有素的分类器,我们可以生成一个欺骗网络的样本吗?如果我们这样做,它会是什么样子?

事实证明,我们可以。

甚至更多 - 对于几乎任何给定的图像分类器,可以将图像变换为另一个图像,这将被高度置信地错误分类,同时在视觉上与原始图像无法区分!这种过程称为对抗性攻击,生成方法的简单性解释了很多关于GAN的内容。 精心计算的示例中的对抗性示例,其目的是错误分类。以下是此过程的说明。左边的熊猫与右边的熊猫无法区分 - 但它被归类为长臂猿。

图像分类器本质上是高维空间中的复杂决策边界。当然,在对图像进行分类时,我们无法绘制这个边界。但我们可以安全地假设,当训练结束时,网络并不是针对所有图像进行推广的 - 仅针对我们在训练集中的那些图像。这种概括可能不是现实生活的良好近似。换句话说,它适用于我们的数据 - 我们将利用它。

让我们开始为图像添加随机噪声并使其非常接近零。我们可以通过控制噪声的L2范数来实现这一点。数学符号不应该让您担心 - 出于所有实际目的,您可以将L2范数视为向量的长度。这里的诀窍是你在图像中拥有的像素越多 - 它的平均L2范数就越大。因此,如果噪声的范数足够低,您可以预期它在视觉上难以察觉,而损坏的图像将远离矢量空间中的原始图像。

为什么?

好吧,如果HxW图像是矢量,那么我们添加到它的HxW噪声也是矢量。原始图像具有相当密集的各种颜色 - 这增加了L2规范。另一方面,噪声是一组视觉上混乱的相当苍白的像素 - 一个小范数的矢量。最后,我们将它们添加到一起,为损坏的图像获取新的矢量,这与原始图像相对接近 - 但却错误分类!

现在,如果原始类 Dog 的决策边界不是那么远(就L2范数而言),这种加性噪声将新图像置于决策边界之外。

您不需要成为世界级拓扑学家来理解某些类别的流形或决策边界。由于每个图像只是高维空间中的矢量,因此在其上训练的分类器将“所有猴子”定义为“由隐藏参数描述的该高维斑点中的所有图像矢量”。我们将该blob称为该类的决策边界。

好的,所以,你说我们可以通过添加随机噪声轻松欺骗网络。它与生成新图像有什么关系?

现在我们假设有两个结构模型,相当于两个神经网络:

这是关于判别网络D和生成网络G的价值函数(Value Function),训练网络D使得最大概率地分对训练样本的标签(最大化log D(x)),训练网络G最小化log(1 – D(G(z))),即最大化D的损失。训练过程中固定一方,更新另一个网络的参数,交替迭代,使得对方的错误最大化,最终,G 能估测出样本数据的分布。生成模型G隐式地定义了一个概率分布Pg,我们希望Pg 收敛到数据真实分布Pdata。论文证明了这个极小化极大博弈当且仅当Pg = Pdata时存在最优解,即达到纳什均衡,此时生成模型G恢复了训练数据的分布,判别模型D的准确率等于50%。

接着上面最后一个问题:怎么才能生成我指定的图像呢?

指定标签去训练

顾名思义就是把标签也带进公式,得到有条件的公式:

具体怎么让CGAN更好的优化,这里不解释,就是平常的优化网络了。

参考文章:

本文大部分翻译此外文

通俗易懂

小博客的总结

唐宇迪大神

146 评论

相关问答

  • 网络舆情应对策略研究毕业论文

    个人感觉,一是提升从业者素质问题,二是相关法律制度的完善,三是政府监管。这个是整体而言的,具体则可以展开。

    无锡美艺馨 6人参与回答 2023-12-07
  • 网络教育生的毕业论文

    网络教育毕业论文答辩有哪些技巧?一、网络教育毕业论文写作有何诀窍? 毕业论文答辩辅导讲座要关注。一般而言,你报读的网络教育学院会提供这类答辩辅导讲座课件,在这些

    琳子Yulander 3人参与回答 2023-12-09
  • 网络安全的现状与对策毕业论文

    当前计算机网络系统面临的信息安全保密形势越来越严峻。下面是我为大家整理的计算机网络安全问题论文,供大家参考。 计算机安全常见问题及防御 措施 摘要:计算机的应

    0密星猛龙0 3人参与回答 2023-12-11
  • 网络大学生毕业论文

    你的网络工程论文准备往什么方向写,选题老师审核通过了没,有没有列个大纲让老师看一下写作方向? 老师有没有和你说论文往哪个方向写比较好?写论文之前,一定要写个大

    冬日恋鬼 2人参与回答 2023-12-10
  • 裕生网络毕业论文

    这个看你选择 什么题目

    俺是陆军PLA 4人参与回答 2023-12-09