Auto-encoder
Auto-encoder
其实方法论上很简单:

从PCA的视角看:

就是两边的weight是转置的,但是这个PCA限制的,没有必要说encoder和decoder的weight是对称的。
所以可以去掉这个限制,直接train一发。
deep的方法比PCA好一些:(下面是deep)
Auto-encoder还可以用来做预训练参数

比如上图中,先把500 1000 1000之间的参数按每一层去学好,作为初始值。

但是一般没什么用了现在,现在的optimizer都挺牛逼的。
主要是针对大量没有标签(用来pre-train),只有少量的labeled data去稍微调整weight。
加噪版auto-encoder增加抗干扰能力,更robust
让auto-encoder学会去除噪音。

对CNN也有对应的unpooling和deconvolutional


使用decoder去做generation

这里可以加一个L2的regularization,让其分布与0点的周围,然后直接取0周围的空间去做generation就可以了。

All articles in this blog are licensed under CC BY-NC-SA 4.0 unless stating additionally.