无监督学习中的两个非概率模型:稀疏编码与自编码器

开发 开发工具
本文介绍的是「无监督学习中的非概率模型」的有关内容里的稀疏编码(Sparse Coding)和自编码器(Autoencoder),这两种结构也是「无监督学习」的基本构件。

「无监督学习」(Unsupervised Learning)现在已经成为深度学习领域的热点。和「有监督学习」相比,这种方法的最大优势就在于其无须给系统进行明确的标注(label)也能够进行学习。最近,在德国的图宾根,机器学习夏训营(Machine Learning Summer School)正在如火如荼地进行,其中来自 CMU 的 Ruslan Salakhutdinov 教授就带来了很多关于「无监督学习」的精彩内容。今天机器之心给大家分享的正是其课件中有关「无监督学习中的非概率模型」的相关内容,主要介绍了稀疏编码(Sparse Coding)和自编码器(Autoencoder),这两种结构也是「无监督学习」的基本构件。

无监督学习中的非概率模型

一、稀疏编码(Sparse Coding)

1. 稀疏编码的概念

稀疏编码最早由 Olshausen 和 Field 于 1996 年提出,用于解释大脑中的初期视觉处理(比如边缘检测)。

目标:给定一组输入数据向量 { x1,x2,...,xN },去学习一组基字典(dictionary of bases):

稀疏编码的概念

满足:

稀疏编码的概念

其中 ank 的值大部分都为 0,所以称为「稀疏」。每一个数据向量都由稀疏线性权值与基的组合形式来表达。

2. 稀疏编码的训练

为输入图像片段;

为要学习的基字典(dictionary of bases)。

这个表达式的第一项为重构误差项;第二项为稀疏惩罚项。

交替性优化:

(1) 固定基字典,求解激活值 a(这是一个标准的 Lasso 问题);

(2) 固定激活值 a,优化基字典(凸二次规划问题——convex QP problem)。

(3) 稀疏编码的测试过程

  • 输入为一个新图像片段 x* , 和 K 个可学习的基;
  • 输出为一个图像片段 x* 的稀疏表达 a(sparse representation)。

稀疏编码的训练

稀疏编码的训练

[0, 0, ..., 0.8, ..., 0.3 ..., 0.5, ...] 为系数矩阵,也叫做特征表示(feature representation)。

下图为应用稀疏编码进行图像分类的相关实验结果,该实验是在 Caltech101 物体类别数据集中完成的,并且用经典的 SVM 作为分类算法。

应用稀疏编码进行图像分类的相关实验结果

3. 稀疏编码的相关解释

稀疏编码的相关解释

  • a 是稀疏,且过完备(over-complete)的表征;
  • 编码函数 a = f(x) 是 x 的隐函数和非线性函数;
  • 而重构(解码)函数 x' = g(a) 是线性且显性的。

二、自编码器(Autoencoder)

1. 自编码器结构

自编码器结构

编码器和解码器内部的详细数据信息至关重要;

2. 自编码器范例

自编码器范例

如上图所示,编码器的过滤器(filters)为 W,函数为 Sigmoid 函数,

自编码器范例

解码器的过滤器(filters)为 D , 函数为线性回归函数。

这是一个拥有 D 个输入和 D 个输出的自编码器,并且包括 K 个隐单元(hidden units), K

自编码器范例

我们可以通过使重构误差(reconstruction error)最小化来决定网络的参数 W 和 D :

自编码器范例

3. 其它自编码模型

自编码模型

  • 如果隐蔽层(hidden layer)和输出层是线性的,它将会对隐单元(hidden units)进行学习,这些隐单元是数据的线性方程,并且可以使方差最小化。这 K 个隐单元将会像前 K 个主成分(first k principal components)一样,覆盖相同的空间。这些权重矢量可能不是正交的。
  • 对于非线性隐单元的情况来说,我们会利用 PCA(Principal Component Analysis)的非线性泛化(nonlinear generalization)来进行处理。
  • 和限制性玻尔兹曼机(Restricted Boltzmann Machines)相关。

预测稀疏分解(Predictive Sparse Decomposition):

预测稀疏分解(Predictive Sparse Decomposition)

在训练过程中:

可以看到,这种结构在解码器部分加入了稀疏惩罚项(详见以上关于稀疏编码的内容)。

4. 堆叠式自编码器(Stacked Autoencoder)

堆叠式自编码器

这是一种「贪婪」的分层学习。如果我们去掉解码器部分,并且只使用前馈部分,会发现这是一个标准的类似于卷积神经网络的结构,参考下图。可以使用反向传播来对参数进行调校。

堆叠式自编码器

5. 深度自编码器结构及其相关实验结果

深度自编码器结构及其相关实验结果

深度自编码器结构及其相关实验结果

  • 第一行:从测试数据集中随机采样;
  • 第二行:用 30 维的自编码器进行重构得到的结果;
  • 第三行:用 30 维的 PCA 进行重构得到的结果

【本文是51CTO专栏机构“机器之心”的原创文章,微信公众号“机器之心( id: almosthuman2014)”】

戳这里,看该作者更多好文

责任编辑:赵宁宁 来源: 51CTO专栏
相关推荐

2021-02-20 20:57:16

深度学习编程人工智能

2021-03-22 10:52:13

人工智能深度学习自编码器

2021-03-29 11:37:50

人工智能深度学习

2024-06-18 08:52:50

LLM算法深度学习

2017-05-08 22:40:55

深度学习自编码器对抗网络

2020-04-26 11:26:02

人脸合成编码器数据

2023-11-23 15:54:01

人工智能监督学习无监督学习

2017-11-10 12:45:16

TensorFlowPython神经网络

2024-10-21 16:47:56

2017-07-19 13:40:42

卷积自编码器降噪

2022-04-02 21:46:27

深度学习编码器图像修复

2018-04-23 14:49:31

表征句子深度学习自然语言

2024-11-13 16:24:33

ViT架构PyTorch

2020-04-28 17:26:04

监督学习无监督学习机器学习

2017-12-26 10:48:37

深度学习原始数据

2019-10-14 10:40:03

机器学习人工智能非监督学习

2015-10-12 10:37:42

学习算法检测

2023-08-14 08:30:32

2021-11-02 20:44:47

数字化

2017-06-12 14:04:45

深度学习人工智能
点赞
收藏

51CTO技术栈公众号