深度学习最强资源推荐:一文看尽 GAN 的前世今生

自媒体 自媒体

(原文来自www.777n.com)

(原创文章www.777n.com)

起原:AI 科技谈论

(本文来自www.777n.com)

AI科技谈论按,生成匹敌收集是当前最热点的手艺之一,它掀起了一场手艺革命,取得了好多重大的冲破。不久前,伊利诺伊大学香槟分校的学生 Ajay Uppili Arasanipalai 在 Deep Learning 专栏发布了一篇文章,文章具体介绍了 GAN 自被提出以来的成长汗青,以及各类相关的论文、代码和博客。雷锋网 AI 科技谈论将他的文章编译整顿如下。

当 Ian Goodfellow 在 2014 年喝了一杯啤酒之后,在梦中发生了「生成匹敌收集」(GANs)的设法时,他或者没想到这一范畴进展如斯之快:

你或者不知道我要表达什么意思——其实你适才看到的图片完全、弗成否认、100%…是假的。

此外,我并不是说,这些图片都是 photoshop、CGI 或用 Nvidia 今朝的高级新手艺填补空白发生的。

我的意思是,这些图像完满是经由加法、乘法在破费了大量 GPU 较量之后生成的。

实现这些玩意儿的算法被称为生成性匹敌收集,在曩昔几年中,Facebook 致力于生成匹敌收集的研究和立异比在隐私珍爱问题上更多。

2019 年 1 月 15 日,Ian Goodfellow 在 twitter 中透露,曩昔 4 年半,GAN 在人脸生成方面的进展能够查察下面的资料:

  • https://t.co/kiQkuYULMC

  • https://t.co/S4aBsU536b

  • https://t.co/8di6K6BxVC

  • https://t.co/UEFhewds2M

  • https://t.co/s6hKQz9gLz

  • https://t.co/F9Dkcfrq8l

总结 2014 年 vanilla GAN 的每一个提高,就和旁观第 8 季《权力的游戏》一般难题。是以,我将回首几年来 GAN 研究中最酷究竟背后的要害思惟。

我不筹算具体注释转置卷积和 Wasserstein 距离等概念。相反,我将供应一些最好的资源的链接,你能够使用这些资源快速认识这些概念,如许你就会认识它们是若何融入大局的。

若是你还在阅读,我假设你知道深度进修的根蒂常识,你知道卷积神经收集是若何工作的。
带着这些前提,下面先看看 GAN 的成长路线图:

GAN 的成长路线图

我们将按照下面的顺序,一步一步进修它:

  1. GAN:生成匹敌收集

  2. DCGAN:深度卷积生成匹敌收集

  3. CGAN:前提生成匹敌收集

  4. CycleGAN

  5. CoGAN:耦合生成匹敌收集

  6. ProGAN:生成匹敌收集的渐进式增进

  7. WGAN:Wasserstein 生成匹敌收集

  8. SAGAN:自注重力生成匹敌收集

  9. BigGAN:大生成匹敌性收集

  10. StyleGAN:基于气势的生成匹敌收集

接下来让我们起头吧!

1.GAN:生成匹敌收集

图片来自于这篇论文:https://arxiv.org/pdf/1406.2661.pdf

相关资源:

  • 论文、代码

  • 其他主要资源:Ian Goodfellow 的 NIPS 2016 教程

如今,我知道你在想什么了——天啊,那张令人毛骨悚然的、恍惚的图像看起来像是一个数学迷从 Excel 表格中建造图片后放大的究竟。

视频请前去Youtube旁观:https://youtu.be/UBX2QQHlQ_I

好吧,其实你猜的多几多少是对的(除去 excel 部门)。

早在 2014 年,Ian Goodfellow 就提出了一个革命性的设法——让两个神经收集互相竞争(或合作,这是一个概念问题)。

一个神经收集试图生成接近真实的数据(注重,GANs 能够用来模拟任何数据分布,但今朝首要用于图像),另一个收集试图区分真实的数据和由生成收集生成的数据。

生成器收集使用判别器作为损耗函数,并更新其参数以生成看起来更真实的数据。

另一方面,判别器收集更新其参数,以便更好地从真实数据中识别出假数据。所以它的机能也变得更好了。

这个猫鼠游戏持续进行,直到系统达到所谓的「均衡」。达到均衡今后,生成器建立的数据看起来充沛真实,是以判别器能做的只是是随机猜测。

进展到今朝为止,若是你准确地缩进了代码,而且 Amazon 决意一直止你的 SPOT 实例(顺便说一句,这不会发生在 FloydHub 上,因为它们供应了专用的 GPU 机械),那么你如今就有了一个生成器,能够正确地建立和你的练习数据集沟通的新数据。

如今,这是公认的 GANs 的一个非常简洁的概念。你需要从这里学到的思惟是,经由使用两个神经收集——一个神经收集生成数据,另一个神经收集从假数据平分类出真实数据。从理论上来说,你能够同时练习它们,收敛到一个点,在这个点上,生成器能够生成全新的、真实的数据。

2.DCGAN:深卷积生成匹敌收集


图片起原:https://arxiv.org/pdf/1511.06434.pdf

相关资源:

  • 论文、代码

  • 其他资源: 媒体文章 

看到了吧,我会给你节约时间。

卷积=对于图像处理来说很有效

GANs=适合生成一些器材

卷积+GANs=适合生成图像

事后看来,正如 Ian Goodfellow 在与 Lex Fridman 在一次广播节目中所指出的那样,他们将这种模型称为 DCGAN(即「深层卷积生成匹敌收集」)似乎很愚蠢,因为如今几乎所有与深度进修和图像相关的器材都是深度的、卷积的。

此外,当大多数人认识到 GANs 时,他们或多或少都邑知道它们是「深度而卷积」的。

然而,曾经有一段时间,GANs 并纷歧定使用基于卷积的把持,而是依靠于尺度的多层感知器架构。
DCGAN 改变了这一点,使用了一种被称为转置卷积运算的方式,它还有一个「不幸的」名称,即反卷积层。

转置卷积能够进行向上缩放把持。它们匡助我们将低差别率图像转换为高差别率图像。

然则,严峻地说,你需要经由上面介绍的论文、低吗和媒体资源来更好地舆解转置卷积,因为它们是所有现代 GAN 架构的根蒂。

不外,若是你的时间有点短,那么你能够经由旁观一个简洁的动画,来也许认识转置卷积是若何工作的:

在 vanilla 卷积中,你应用一系列卷积(连同其他把持)来将图像映射到更低维的向量。

同样,按顺序应用多个转置卷积能够使我们将一个低差别率的单阵列演化为一个色彩明艳的全彩图像。
如今,在持续之前,我们先来索求一下使用 GAN 的一些奇特方式。

你如今处在第二个红色的「X」的位置

3.CGAN:前提生成匹敌收集

图片起原于论文:https://arxiv.org/pdf/1411.1784.pdf

相关资源:

  • 论文、代码

  • 其他主要资源:博客

原始的 GAN 从随机噪声中生成数据。这意味着你能够练习它,以小狗图像为例,它会发生更多的小狗图像。

你还能够在小猫图像上练习它,在这种情形下,它将生成小猫的图像。

你也能够在演员 Nicholas Cage 的照片图像上练习它,在这种情形下,它将生成 Nicholas Cage 图像。

你也能够在好多其余图像上练习它。领略了吗?在什么图像上练习 GAN,它就能生成更多的雷同图像。

然而,若是你同时测验在狗和猫的图像上练习它,它会生成恍惚的半品种,就和下图一般。

图片由 Anusha Barwa 拍摄于 Unsplash

CGAN(代表「前提生成匹敌收集」)旨在经由敷陈生成器只生成一个特定类的图像来解决这个问题,例如猫、狗或 Nicholas Cage。

具体来说,CGAN 将一个 one-hot 向量 y 保持到随机噪声矢量 z,获得如下构造:

如今,我们就能够行使统一个 GAN 生成猫和狗。

4.CycleGAN

相关资源:

  • 论文、代码、其他主要资源:Cyclegan 项目 

  • 媒体文章 

GANs 不光仅用于生成图像。他们还能够缔造外表上同时具有马和斑马特点的生物,如上图所示。

为了建立这些图像,CycleGAN 致力于解决一个被称为图像到图像翻译的问题。

CycleGAN 不是一种新的 GAN 架构,固然它鞭策了最进步的图像合成手艺。相反,它是一种使用 GANs 的伶俐方式。所以你能够自由地在任何你喜欢的架构中使用这种手艺。

这里有一篇文章,我建议你读一下。它写得非常好,甚至对初学者来说也很轻易懂得。文章地址:https://arxiv.org/abs/1703.10593v6。

这里的义务是练习收集 G(X),将图像从源域 X 映射到方针域 Y

然则,等等,你或者会问,「这和常规的深度进修或气势转换有什么分歧」。

好吧,下面的图片很好地总结了这一点。CycleGAN 进行未配对的图像到图像的转换。这意味着我们正在练习的图像不必代表沟通的器材。

若是我们有大量的图像(DaVinci-ify 的图像绘画)对收藏的话,DaVinci-ify 将(相对地)很轻易识别图像。

不幸的是,这家伙没来得及完成太多的画。

然而,CycleGAN 使用未配对的数据进行练习。所以我们不需要沟通事物的两个图像。

另一方面,我们能够使用样式转换。但这只会提取一个特定图像的样式,并将其转换为另一个图像,这意味着我们无法从马转换为斑马。

然而,CycleGAN 进修从一个图像域到另一个图像域的映射。所以我们能够在所有 Monet 绘画的鸠合上对它进行练习。

他们使用的方式相当优雅。CycleGAN 由两个生成器 G 和 F 以及两个判别器 Dx 和 Dy 构成。

G 从 X 中获取图像,并试图将其映射到 Y 中的某个图像。判别器 Dy 判断图像是由 G 生成的,照样实际上是在 Y 中生成的。

同样地,F 从 Y 中获取一个图像,并试图将其映射到 X 中的某个图像,判别器 Dx 展望图像是由 F 生成的照样实际存在于 X 中的。

所有四个收集都是以通俗的 GAN 的体式练习的,直到获得壮大的生成器 G 和 F,它们能够很好地执行图像到图像的翻译义务,骗过判别器。

这种匹敌性的损失听起来是个好主意,但还不敷。为了进一步提高机能,CycleGAN 使用另一个器量,即轮回一致性损失。

一样来说,想想好的翻译人员的特点。个中之一是,当你往返翻译时,你应该获得同样的器材。

CycleGAN 巧妙地实现了这个设法,它强制收集遵守这些限制前提:

  • F(G(x))≈x,x∈X

  • G(F(y))≈y,y∈Y

从视觉上看,轮回一致性如下:

总损耗函数的组织体式是,责罚不相符上述特征的收集。我不筹算在这里写出损失函数,因为这会损坏它在论文里面的组合体式。

好吧,在越聊越偏之前,让我们回到寻找更好的 GAN 架构的首要义务。

5.CoGAN:耦合生成匹敌收集


图片起原于论文:https://arxiv.org/pdf/1606.07536.pdf

相关资源:

  • 论文、代码

  • 其他主要资源:博客论文 

你知道什么比一个 GAN 更好吗?两个 GAN!

CoGAN 就是如许做的(CoGAN 代表「耦合生成匹敌收集」,不要与 CGAN 搅浑,CGAN 代表前提生成匹敌收集)。它练习的是「两个」GAN 而不是一个。

当然,GAN 的研究人员也无法住手将 GAN 类比成警察和伪造者的谈吐。是以,GAN 背后的思惟,用作者本身的话说就是:

在竞赛中,有两个队,每个队有两名队员。生成模型构成一个团队,配合在两个分歧的域中合成一对图像,以搅浑区分模型。判别模型试图将从各自范畴的练习数据分布中提取的图像与从各自生成模型中提取的图像区分隔来。统一队的队员之间的协作是从权重分管机制中竖立起来的。

好吧,有一个由多个 GAN 构成的局域收集听起来不错,但你若何使它工作?

究竟证实这并不太复杂,你只需要让收集对某些层使用完全沟通的权重。

在我看来,CoGAN 最酷的处所不在于它能提高图像生成质量,也不在于它能够在多个图像域上练习。

事实上,你只需要破费 1.5 张图片的价值来获得 2 张图片。

因为共享了一些权重,所以与两个零丁的 GAN 比拟,CoGAN 的参数更少(是以能够节约更多的内存、较量和存储空间)。

这是一种「过时」的微技术巧,并且我们今天看到的一些 GAN 的新方式是不使用它们的。

但总有一天,我想我们会再次用到它们的。

6.ProGAN:渐进式增进的生成匹敌收集

图片起原于论文:https://arxiv.org/pdf/1710.10196.pdf

相关资源介绍:

  • 论文、代码

  • 其他精良资源:媒体文章、演示视频 

在练习 GANs 的时候会有好多问题,个中最主要的是练习的不不乱性。

有时,GAN 的损耗会波动,因为生成器和判别器会互相损坏另一方的进修。其他时候,在收集聚合后损耗或者会爆炸,图像起头变得看起来恐怖。

ProGAN(代表了生成匹敌收集的慢慢增进)是一种经由增加生成图像的差别率来匡助不乱 GAN 练习的手艺。

这里我们会有一种直觉,那就是生成 4x4 图像比生成 1024x1024 图像更轻易。此外,将 16x16 图像映射到 32x32 图像比将 2x2 图像映射到 32x32 图像更轻易。

是以,ProGAN 首先练习一个 4x4 生成器和一个 4x4 判别器,然后在练习过程中添加对应于更高差别率的层。这个动画总结了我所描述的:

7.WGAN: Wasserstein 生成匹敌收集

图片起原于论文:https://arxiv.org/pdf/1701.07875.pdf

相关资源介绍:

  • 论文、代码

  • 其他精良资源:DFL 课程、博客文章、另外博客、媒体文章 

这一部门或许是这篇文章中最偏理论和数学的一部门。作者把大量的证实、推论和一些数学术语塞进个中。所以若是积分概率器量和 Lipschitz 一连性不是你关心的事情,我不会在这件事上花太多时间。

简而言之,WGAN(W 代表 Wasserstein)提出了一种新的成本函数,这种函数有一些非常好的性质,使得它在数学家和统计学家中非常风行。

这是旧版的 GANGAN minimax 优化公式:

这里是 WGAN 使用的新方式:

在大多数情形下,这就是在实践中使用 WGAN 所需要知道的悉数内容。

只需剔除旧的成本函数,它近似一个称为 Jensen-Shannon 散度的统计量。然后到场新的成本函数,它近似一个称为 1-Wasserstein 距离的统计量。

原因如下:

图片起原于论文:https://arxiv.org/pdf/1701.07875.pdf

然而,若是你感乐趣,下面是对它的数学道理的快速回首,并且这也恰是 WGAN 论文如斯受迎接的原因。

原始的 GAN 论文表明,当判别器为最优时,生成器被更新,以使 Jensen-Shannon 散度最小化。

若是你不熟悉 Jensen-Shannon,我来注释一下。Jensen-Shannon 散度是一种测量两种分歧的概率是若何分布的方式。JSD 越大,两个分布越「分歧」,反之亦然。较量方式如下:

然而,最小化 JSD 是最好的方式吗?

WGAN 论文的作者认为这或者不是,这是出于一个特别的原因——当两个分布完全不重叠时,你能够发现,JSD 的值连结为 2log2 的常量值。

当一个函数值为一个常量值时,它的梯度等于零,而零梯度是欠好的,因为这意味着生成器什么也学不到。

WGAN 作者提出的替代距离器量的是 1-Wasserstein 距离,有时称为地球移动距离。

图片起原于论文:https://arxiv.org/pdf/1701.07875.pdf

地球移动距离这个名称是类比得来的。你能够想象,假设两个分布中的一个是一堆土,另一个是一个坑。地球移动距离是指将土堆运至坑内的成本,其前提是要尽或者高效地运输土壤、沙子、尘土等。在这里,「成本」被认为是点之间的距离×移动的土方量。

具体来说(没有双关语),两个分布之间的地球移动距离可写为:

个中 inf 是中位数(最小值),x 和 y 是两个分布上的点,γ是最佳的运输方式。

不幸的是,它的较量非常复杂,难以解决。是以,我们较量的是完全分歧的器材:

这两个方程之间的关联一起头似乎并不显着,但经由一个叫做 Kantorovich-Rubenstein 对偶的奇异数学公式,你能够证实这些 Wasserstein/地球移动器距离的公式正试图较量沟通的事情。

若是你不克在我给出的论文和博客文章中学到一些主要的数学常识,不要担心太多。关于 WGAN 的大部门工作,其实都只是为公认的简洁设法供应一个复杂的(严厉的)来由。

8.SAGAN:自注重力生成匹敌收集


图片起原于论文:https://arxiv.org/pdf/1805.08318v1.pdf

相关资源介绍:

  • 论文、代码

  • 其他主要资源:博客文章、媒体文章 

因为 GANs 使用转置卷积来「扫描」特征图,是以它们只能接见四周的信息。

零丁使用转置卷积就像在绘制图片的时候,只查察画笔小半径局限内的画布区域。

即使是能够完美地完成最特别、最复杂的细节的最伟大的艺术家们,也需要撤退一步,视察全局。

SAGAN 使用自注重力机制,因为其转换架构,近年来它已非常风行。

自注重力让生成器撤退一步,看看「大局」。

9.BigGAN

相关资源介绍:

  • 论文、代码

  • 其他主要资源:两分钟的论文视频、梯度 pub 论文、媒体文章 

四年之后,DeepMind 决意使用 GANs 做以前没人做过的事。他们使用了一种神秘的深度进修手艺,这种手艺非常壮大,使适合前最进步的模型在惧怕中哆嗦,因为它远远超越了其时最进步的排行榜上的所有手艺。

我向你介绍了 BigGAN,它是一个完全不做任何事情的 GAN(然则它运行着一组 TPU 集群,不知为何我感觉它应该在这个列表中)。

看起来像恶作剧的是,DeepMind 团队切实行使 BigGAN 完成了好多工作。除了用真实的图像吸引了所有的目光之外,BigGAN 还向我们展示了一些非常具体的大规模练习的究竟。

BigGAN 背后的团队引入了各类手艺,以战胜跨多台机械多量量练习 GAN 的不不乱性。

首先,DeepMind 使用 SAGAN 作为基线,并附加了一个称为谱归一化的特征。他们将 batch 的巨细缩放了 50%,宽度(通道数)缩放了 20%。最初,增加层的数量似乎没有匡助。

在测验了好多其他方式之后,作者使用「截断技能」来提高采样图像的质量。

在练习过程中,,若是潜在向量在生成图像时落在给定局限之外,则对其从新采样。给定局限是一个超参数,用ψ透露。较小的ψ缩小了局限,牺牲多样性以增加样品保真度。

那么,所有这些复杂的调优工作都邑发生什么究竟呢?好吧,有人称之为 dogball:

BigGAN 还表明,大规模的练习会有本身的一系列问题。值得注重的是,经由增加 batch 巨细和宽度等参数,练习似乎能够很好地扩展,但出于某种原因,练习最终会溃逃。

若是你感觉剖析奇非常值来懂得这种不不乱性听起来很有趣,请看这篇论文,在论文中,你会发现好多不不乱性。

最后,作者还练习了一个 BigGAN 的新数据集,叫做 JFT-300,它是一个雷同于 ImageNet 的数据集,也许有 3 亿张图片。BigGAN 在这个数据集上的示意更好,这表明更大规模的数据集或者是 GANs 的成长偏向。

在论文的第一版揭橥后,过了几个月,作者从新测验了 BigGAN。还记得我说过增加层数不起感化吗?后背发现这是因为糟糕的架构。

该团队没有将更多的层塞进模型中,而是进行了实验,发现使用深度残差收集 bottleneck 是解决问题的方式。

经由上述所有的调整、缩放和细心的实验,BigGAN 以最高 152.8 分的示意完全超越了先前的最进步的起步分数 52.52。

若是这都不是提高,那么我不知道什么才是提高。

10.StyleGAN:基于气势的生成匹敌性收集


图片起原于论文:https://arxiv.org/abs/1812.04948

相关资源介绍:

  • 论文、代码

  • 其他优质资源:thispersondoesnotexist、博文、此外一篇博文、手艺总结文 

StyleGAN(style generative adversarial network)是 NVIDIA 研究院的功效,它与传统的 GAN 的研究南辕北辙,后者偏重于损失函数、不乱性、系统构造等。

若是你想生成汽车的图像,那么拥有一个世界级的、能够愚弄地球上大多数人的人脸图像生成器是毫无意义的。

是以,StyleGAN 没有专注于建立更真实的图像,而是改善了 GANs 对生成的图像进行精美掌握的能力。

正如我提到的,StyleGAN 不专注于架构和损失函数。相反,它是一套手艺,能够与任何 GAN 一路使用,许可你执行各类酷的事情,如夹杂图像、在多个级别上改变细节以及执行更高级的样式转换。

换言之,StyleGAN 就像一个 photoshop 插件,而大多数 GAN 的进展都像是 photoshop 的新版本。

为了实现这一级其余图像样式掌握,StyleGAN 使用了现有的手艺,如自适应实例规范化、潜在的矢量映射收集和持续的进修输入。

很难在不认识细节的情形下进一步描述 StyleGAN,是以若是你感乐趣,请查察我的文章,我在个中演示了若何使用 StyleGAN 生成权力游戏里面的人物。我对个中所有的手艺都有具体的注释,这里面有好多很酷的究竟。

结论

哇,你做到了,祝贺你!你如今知道了这个范畴里面的所有最新冲破,包罗建造子虚的小我资料图片。
然则,在你躺在沙发上起头无休止的浏览推特之前,花点时间看看你已经走了多远:

接下来是什么?未勘探区域!

在攀缘了 ProGAN 和 StyleGAN 的山脉,穿越较量的海洋达到了 BigGAN 的广宽范畴之后,你很轻易在这些处所迷路。

然则,请放大地图细心看看。你看到那片绿色的地盘了吗?看到北部的红色三角洲了吗?

这些是未经索求的区域,还有待取得冲破。若是你对峙崇奉一向起劲,他们都能够是你的。

再会,我的同伙,还有更大的海洋需要去航行。

结语:一些有趣的现代研究

到今朝为止,若是你已经阅读了我共享的所有资源,那么你应该对 GAN 手艺的一些最主要的冲破有了扎实的懂得。

但毫无疑问,还会有更多的手艺。跟上研究是难题的,但这并非弗成能。我建议你尽量对峙阅读最新的论文,因为它们或者会匡助你的项目发生最好的究竟。

为了匡助你起头,以下是一些前沿研究项目(截止 2019 年 5 月):

  • 你如今或者已经据说了「DeOldify」。若是没有,跳到这里!但它比来有一个更新,它引入了一种新的练习手艺 NoGAN。你能够在他们的博客和代码中查察具体信息。

  • 若是你没有 Google 级的数据量,那么从头再现 BigGAN 的究竟是很有挑战性的。这里有一篇 ICML2019 论文,它提议用更少的标签来练习 BigGAN 模型。

  • 当然,GANs 并不是独一一种基于深度进修的图像生成手艺。比来,OpenAI 推出了一个全新的模型,叫做稀少 transformer,它行使 transformer 架构来生成图像。和往常一般,他们发布了论文、博客和代码。

  • 固然,这不是什么新的研究,但你应该听听 GANs 的发源故事:

视频请前去Youtube旁观:https://youtu.be/8UQzJaa0HPU

  • Nvidia 有一个非常酷的项目,叫做 GauGAN,它能够把顺手乱描的涂鸦酿成实际主义的佳构。这的确是你需要履历才能懂得的事情。所以先看看演示视频,然后读他们的博客和论文。

  • 你有没有想过若何「调试」一个 GAN?如今有一篇 ICLR 2019 论文提出了一个有进展的解决方案。

  • 尽管我让 GAN 看起来很酷,但接下来还有好多工作要做。有一篇精良的总结文总结了一些尚未解决的问题。

  • 看起来,有人找到了另一种在真实世界顶用 GAN 的方式。

关于这一点,能够查察 6 月 13 日,Yann LeCun 介绍的文章:https://t.co/IFYJwb30cw。

via:https://blog.floydhub.com/gans-story-so-far/

将来智能实验室是人工智能学家与科学院相关机构结合成立的人工智能,互联网和脑科学交叉研究机构。


将来智能实验室的首要工作包罗:竖立AI智能系统智商评测系统,开展世界人工智能智商评测;开展互联网(城市)云脑研究规划,构建互联网(城市)云脑手艺和企业图谱,为提拔企业,行业与城市的智能水平办事。


  若是您对实验室的研究感乐趣,迎接到场将来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”


自媒体微信号:777n扫描二维码关注公众号
爱八卦,爱爆料。
小编推荐
  1. NO.1 神奇的魔法蛋糕,1次能吃到3种口感,用料做法都简洁

    魔法蛋糕是一款很神奇的蛋糕,经由烘焙后会在一个蛋糕里主动分层,呈现出三种分歧状况,,让你一次吃到3种口感,用料做法都很简洁,赶紧试一

  2. NO.2 淘宝20块钱的帆布包也太悦目了吧!一口气买十个!

    哈喽美宝宝们晚上好 你们可爱的鸡宝宝又来啦! 不知道人人平时最常背的包包是哪个 鸡是无论剁手几多个包包 最常背的必然是 帆布包 ! 帆布包真

  3. NO.3 经典人力成本核算剖析

    每到做人力成本的预算时,都邑让HR小伙伴头大。因为这项工作需要财务、买卖多部门配合协作完成:算产值、奖金,展望昔时的营业收入和需要投入

  4. NO.4 一位教师妈妈的心声:家长别把负能量传给孩子,请相信先生的

    比来, “家庭教育” 这一话题引起了人人的普遍商议。同伙圈撒布的各类段子和文章,让“焦虑”成了家长的集体画像。焦虑的背后其实是无处安放

  5. NO.5 男生有生理回响和爱你没紧要,就像你妈打你,不讲事理...

    相信好多宝宝跟男票在一路的时候 都邑发现一个神奇的生理现象 那就是:发现男票 丁丁勃起 通俗点讲就是: 硬了 (为了协调文明旁观,接下来喵

  6. NO.6 5款超等火爆的手撕面包,好吃不腻,口感松软,看一遍就能学会

    为防走失、错过出色,请实时 添加星标 哦! 一个专注0根蒂免费学烘焙的平台 微旌旗: bake360 今天分享几款超好吃的手撕面包给人人,无需繁琐的整

  7. NO.7 其实,不到500块的连衣裙就够美了!

    本年的炎天来得太突如其来了吧!一波升温搞得人措手不及。不分南北,北京上海上周末都要破30度了?! Reformation 2019春夏 Kate Dress Urban Outfitters 2

  8. NO.8 紧要通知:如今成就569分以下的高中生,必然要看这篇文章,影

    高考仅剩2个月,你是否还在 学校 刷 题 、讲题、测验中 无限 轮回…… 这种进修方式下,成就一向没有提拔? 前次测验做错的题,此次依旧会做错

Copyright2018.亲亲自媒体资讯站,让大家及时掌握各行各业第一手资讯新闻!