统计学习 最小错误率与最小风险的贝叶斯决策

【最小错误率的贝叶斯决策】

贝叶斯定理:   P(\omega |X)=P(\omega )*\frac{P(X|\omega )}{P(X)}

以两类问题为例,已知两类别\omega _{1}\omega _{2}的先验概率  P(\omega _{1}) 和  P(\omega _{2})  以及类别特征的条件概率 P(x|\omega _{1}) 和 P(x|\omega _{2}) 

现给定一个样本的特征x  分析其属于何种类别?

判别函数:

P(\omega1 |X)=P(\omega1 )*\frac{P(X|\omega1 )}{P(X)}           P(\omega2 |X)=P(\omega2 )*\frac{P(X|\omega2 )}{P(X)}

P(\omega1 |X)>P(\omega2 |X)      则 X属于\omega _{1}    

P(\omega1 |X)<P(\omega2 |X)      则 X属于\omega _{2}    

最小错误率的贝叶斯决策即求解最大的类别后验概率

进一步,针对多类问题,其判别函数形式化表达为:

argmaxP(\omega _{i} |X)=P(\omega _{i} )*\frac{P(X|\omega _{i} )}{P(X)}

决策面方程即符合决策面方程的样本可以等可能的判定为不同类别

两类分类问题决策面方程:

P(\omega1 |X)=P(\omega2 |X)         即        P(\omega1 )*P(X|\omega1 )=P(\omega2 )*P(X|\omega2 )

多类分类问题决策面方程:

P(\omega _{i} |X)=P(\omega _{j} |X)             i,j =0,1....  同时 i 不等于j

 

【最小风险的贝叶斯决策】

最小错误率的贝叶斯决策可以找到正确率最高的分类结果,但实际问题中,不同类别分类错误的代价可能不同,例如将有毒蘑菇分类成无毒蘑菇的代价远远大于将无毒蘑菇分类成有毒蘑菇的代价。因此根据实际情况人为的引入分类错误风险,使得贝叶斯决策更加科学。

风险损失矩阵: \lambda _{ij}  表示将实际为i的样本划分到j类别的风险系数,特别的当i等于j时,通常 \lambda _{ij}=0

将一个样本X将其划分到\omega _{1} 类别的风险的计算表达式为:

g_{1}(X)=R(\omega _{1}|X)=\lambda _{11}*P(\omega _{1}|X)+\lambda _{12}*P(\omega _{2}|X)

将一个样本X将其划分到\omega _{2} 类别的风险的计算表达式为:

g_{2}(X)=R(\omega _{2}|X)=\lambda _{21}*P(\omega _{1}|X)+\lambda _{22}*P(\omega _{2}|X)

判别依据:

g_{1}(X)<g_{2}(X)    则X判定为\omega _{1}

g_{1}(X)>g_{2}(X)    则X判定为\omega _{2}

特别地,当\lambda _{12}=\lambda _{21}=1也就是判别错误的风险一样大,那么转变为最小错误率的贝叶斯决策

同理决策面方程为对应判定为不同类别风险一样大时样本满足的方程:

g_{1}(X)=g_{2}(X)

 

【实际案例】

 

 

 

 

已标记关键词 清除标记
相关推荐
©️2020 CSDN 皮肤主题: 撸撸猫 设计师:C马雯娟 返回首页