监督学习包含了两类构建机器学习模型的方法——判别模型和生成模型,我们以一篇生动的故事来引出这两类模型的概念。
故事:
有一个父亲有两个孩子,孩子A有能够深入学习一切事物的特殊才能,孩子B有能够学习他所看到事物之间区别的能力。
一天,父亲带两个孩子去动物园,这个动物园很小且只有两类动物——狮子和大象。他们离开动物园后,父亲指向一只动物并问他们:这只动物是狮子还是大象?
孩子A根据自己在动物园里看到狮子和大象的特征,马上在一张纸上画出了狮子和大象,然后他将这两幅图像与站在他面前的动物进行了比较,并根据与动物最接近的图像匹配作出了回答:“这只动物是狮子”。
孩子B根据学习到的可以区分大象和狮子的特征,作出了回答:“这只动物是狮子”。
在这里,他们的任务都是对眼前的动物进行分类,但是学习和寻找答案的方式是完全不同的,在机器学习中,我们通常把孩子A称为生成模型,孩子B称为判别模型。
生成模型学习联合概率分布p(x,y),然后根据贝叶斯理论预测条件概率p(y
x),推导公式为:
判别模型直接学习条件概率分布P(y
x)或学习决策函数y=f(x)预测输出。由(1)式可知生成模型可以得到判别模型,但判别模型得不到生成模型。
如何用生成模型和判别模型进行分类?我们知道生成模型和判别模型的分类方法都是基于条件概率分布p(y
x)进行的,对于K分类,我们选择条件概率最大时的类为预测类,即:
再次回顾(1)式,我们发现p(x)是一个常数,因此p(y
x)与p(x,y)是成正比的关系,即:
下面举一个简单的例子来解释生成模型和判别模型的构建过程以及如何用该模型去进行分类:
假设我们进行二分类,训练数据的特征x有两个取值——1和2,输出y有两类——0或1,有如下的训练样本(1,0)、(1,0)、(1,1)、(2,1)
由训练样本学习到的生成模型的联合概率分布如下:
而学习到的判别模型的条件概率分布如下:
若测试数据的输入特征x为1,根据(2)式(3)式,判别模型和生成模型的预测类别都是0。
下面来盘点下常见机器学习方法的模型分类:
1.判别式分类模型:支持向量机
支持向量机的算法思想是寻找最大化不同类的函数间隔的超平面,如下图根据训练数据求解二分类的最优超平面:
判别函数f(x)为:
给定一个测试数据x0(上图方框表示),代入判别函数f(x):
因此测试数据标记为正样本。
2.生成式分类模型:朴素贝叶斯分类器
假设M维输入特征向量,目标向量y。给定训练数据,我们构建联合概率分布p(x,y)。
由条件独立性假设可得:
对上式积分可得:
由贝叶斯理论可得后验概率:
因此对于测试数据,分类结果为后验概率最大的输出y。
3.判别式分类模型:逻辑斯蒂回归
对于特征向量x的二分类(C1类和C2类)任务,逻辑斯蒂回归的核心是预测输入特征x的所属类的后验概率,可写为:
其中:
若,则判断该输入特征属于C1类,否则输入C2类;如下图:
逻辑斯蒂回归模型是直接预测条件概率p(y
x)的分布,因此逻辑斯蒂回归是判别式分类模型。
4.逻辑斯蒂回归模型与贝叶斯分类器的比较
上一节介绍逻辑斯蒂回归算法直接预测条件概率p(y
x)的分布,给出分类结果。下面看看贝叶斯是如何计算条件概率:
其中:
比较式(3.1)和(4.1)式,可知两种模型参数a的求解方法不同:
逻辑斯蒂回归模型:a是输入特征x的线性方程,即:
贝叶斯模型:我们首先估计模型的类条件概率,然后由(4.1)式计算得到参数a;
5.生成模型:隐马尔科夫模型(HMM)
给定观测数据序列,如何预测生成观测数据的状态序列,观测数据序列和状态序列的关系如下图:
HMM通过构建联合概率分布P(X,Y)来预测状态序列Y,联合概率分布为:
然后通过EM算法求解模型参数,预测状态序列。(5.1)式成立时的两个假设条件:
过去与未来的状态相互独立,即t时刻的状态只依赖于其前一时刻的状态,与其他时刻的状态无关;
各状态的观测数据是相互独立的;
隐马尔可夫模型是通过联合概率分布P(X,Y)来预测状态序列,因此隐马尔可夫模型是生成模型。
6.判别模型:条件随机场(CRF)
为了便于理解,本节只讨论线性链条件随机场,且假设观测序列和状态序列有相同的结构,如下图:
CRF是通过构建条件概率分布p(Y
X)预测状态序列,条件概率分布为:
其中是全局特征方程,是对应的权值。Z(X)是标准化方程,即:
然后通过极大化训练数据的对数似然函数求解模型参数,预测状态序列。
7.生成模型与判别模型的特点比较
生成模型是学习联合概率分布,然后利用贝叶斯理论去预测条件概率分布。生成模型明确的反映了数据集的分布情况,根据数据集的分布情况去预测测试数据的分类情况,当数据量较少时,学习到的联合概率分布与真实的联合概率分布差异较大,因此生成模型适合在数据量很大的情况,当模型需要考虑隐变量时,仍可用生成模型方法,此判别方法不能用。
判别模型是直接学习判别函数f(x)或条件概率分布p(y
x),它是根据训练数据不同类别之间的特征差异来学习决策边界,如支持向量机,逻辑斯蒂回归等模型。因此在数据量不多的情况下判别模型的分类结果要好于生成模型,但是判别模型不能反应数据集的真实分布情况。
8.总结
生成模型和判别模型一般处理监督学习的问题,这两类模型都是通过预测条件概率分布p(y
x)进行分类(判别模型也可通过决策函数分类),只是方式不同:
生成模型思想:
学习联合概率分布p(x,y);
贝叶斯理论计算条件概率p(y
x);
判别模型思想:
直接通过训练数据估计条件概率分布P(y
x)或决策函数f(x);
生成模型的分类器:
朴素贝叶斯
贝叶斯网络
马尔科夫随机场
隐马尔可夫模型
判别模型的分类器:
逻辑斯蒂回归
支持向量机
最近邻算法
条件随机场
推荐阅读:
考虑材料随机分布的环焊缝可靠性仿真分析
基于Agent的无人机综合保障过程建模方法
基于动态多场耦合的锂离子动力电池组寿命分析方法
基于黑板结构和语义的工艺FMEA方法
NASA报告-基于模型工程的NASA复杂系统可靠性分析-Ⅲ
NASA报告-基于模型工程的NASA复杂系统可靠性分析-Ⅱ
NASA报告-基于模型工程的NASA复杂系统可靠性分析-I
预览时标签不可点收录于话题#个上一篇下一篇