当前位置: 首页 > java >正文

大连理工大学选修课——机器学习笔记(9):线性判别式与逻辑回归

线性判别式与逻辑回归

概述

判别式方法

产生式模型需要计算输入、输出的联合概率

  • 需要知道样本的概率分布,定义似然密度的隐式参数
  • 也称为基于似然的分类

判别式模型直接构造判别式 g i ( x ∣ θ i ) g_i(x|\theta_i) gi(xθi),显式定义判别式参数,不关心数据生成过程

基于判别式的方法只关注类区域之间的边界

在这里插入图片描述

一般认为,估计样本集的类密度比估计类判别式更困难,因为构造判别式通常采用简单的模型

如,线性判别式:

g i ( x ∣ w i , w i 0 ) = w i T + w i 0 = ∑ j = 1 d w i j x j + w i 0 g_i(x|w_i,w_{i0})=w_i^T+w_{i0}=\sum_{j=1}^dw_{ij}x_j+w_{i0} gi(xwi,wi0)=wiT+wi0=j=1dwijxj+wi0

广义上,线性判别式代表了一类机器学习模型

  • 逻辑回归
  • 支持向量机
  • 感知机
  • 神经网络

狭义上,线性判别式仅代表逻辑回归

线性判别式

建立判别式

g i ( x ∣ w i , w i 0 ) = w i T x + w i 0 = ∑ j = 1 d w i j x j + w i 0 g_i(x|w_i,w_{i0})=w_i^Tx+w_{i0}=\sum_{j=1}^dw_{ij}x_j+w_{i0} gi(xwi,wi0)=wiTx+wi0=j=1dwijxj+wi0

最大熵模型的判别式还是从条件后验概率出发

在这里插入图片描述

建模的条件

  1. 数据只有两类

  2. 线性可分

    在这里插入图片描述

判别式模型不考虑数据集的概率分布,直接假定判别式的形式

模型的训练

g i ( x ∣ w i , w i 0 ) = w i T x + w i 0 = ∑ j = 1 d w i j x j + w i 0 g_i(x|w_i,w_{i0})=w_i^Tx+w_{i0}=\sum_{j=1}^dw_{ij}x_j+w_{i0} gi(xwi,wi0)=wiTx+wi0=j=1dwijxj+wi0

可以采用梯度法,牛顿法等

也可以采用全局优化算法,如遗传算法,模拟退火算法等

线性模型的推广

如果数据不是线性可分的,可以提高模型的复杂度,例如使用二次判别式

  • 升维操作,增加高阶项

在这里插入图片描述

  • 升维操作的一般形式

    g i ( x ) = ∑ j = 1 k w j θ i j ( x ) + w i 0 g_i(x)=\sum_{j=1}^kw_j\theta_{ij}(x)+w_i0 gi(x)=j=1kwjθij(x)+wi0

    其中, θ i j \theta_{ij} θij是非线性函数,称为基函数

    常用的基函数有sin,exp,log等

线性模型的及决策

原则上,每个类别对应一个判别式,二值分类一个判别式可以分类

g ( x ) > 0 ? C 1 : C 2 g(x)>0\ ?\ C_1:C2 g(x)>0 ? C1:C2

线性模型的几何意义

任取超平面的两个点 x 1 , x 2 , x_1,x_2, x1,x2, g ( x 1 ) = g ( x 2 ) g(x_1)=g(x_2) g(x1)=g(x2)

w T w^T wT为超平面法线

x的新表达式为

x = x p + r w ∣ ∣ w ∣ ∣ x=x_p+r\frac{w}{||w||} x=xp+r∣∣w∣∣w

其中, x p x_p xp x x x到超平面的投影;r是x到超平面的距离 r = g ( x ) ∣ ∣ w ∣ ∣ r=\frac{g(x)}{||w||} r=∣∣w∣∣g(x)

超平面到原点的距离为 r 0 = w o ∣ ∣ w ∣ ∣ r_0=\frac{w_o}{||w||} r0=∣∣w∣∣wo

处理多类问题

当类别数大于2时,需要k个判别式,假定所有类均线性可分,则可以用线性判别式进行区分

对于属于类别 C i C_i Ci的样本 x x x,我们期望其判别式函数 g i ( x ) > 0 g_i(x)>0 gi(x)>0,而其它判别式函数 g j ( x ) < 0 g_j(x)<0 gj(x)<0

但是现实中,多个类别的判别式可能同时给出 g ( x ) > 0 g(x)>0 g(x)>0

因此,我们取判别式值最大的类即 预测类别 = m a x g i ( x ) 预测类别=max\ g_i(x) 预测类别=max gi(x)

此方法称为线性分类器

如果类线性不可分,则可以采取

  1. 升维
  2. 逐对分离:假定各类别间逐对线性可分,那么,有 K ( K − 1 ) 2 \frac{K(K-1)}{2} 2K(K1)个对,建立这么多个线性判别式

在这里插入图片描述

如果k既不属于i也不属于j,则在训练中舍弃样本 x t x^t xt x t x^t xt为其它类样本

这种不断排除的理念类似决策树

逻辑回归

讨论二值分类的对数线性模型

我们从后验概率 P ( C i ∣ x ) P(C_i|x) P(Cix)的计算出发,建立学习模型

定义 P ( C 1 ∣ x ) = y , P ( C 2 ∣ x ) = 1 − y P(C_1|x)=y,P(C_2|x)=1-y P(C1x)=y,P(C2x)=1y

决策为:

在这里插入图片描述

假设两个类别的数据 C 1 , C 2 C_1,C_2 C1,C2服从高斯分布,两类别共享协方差矩阵,在此假设下,贝叶斯分类器的判别式 g ( x ) g(x) g(x)是线性的,推导如下:

根据高斯判别分析的结论:

  • 后验概率 P ( C 1 ∣ x ) P(C_1|x) P(C1x)可表示为:

l o g P ( C 1 ∣ x ) P ( C 2 ∣ x ) = w T x + w 0 \begin{align} log\frac{P(C_1|x)}{P(C_2|x)}=w^Tx+w_0 \end{align} logP(C2x)P(C1x)=wTx+w0

  • 由于 P ( C 2 ∣ x ) = 1 − P ( C 1 ∣ x ) P(C_2|x)=1-P(C_1|x) P(C2x)=1P(C1x),上式等价于:

l o g P ( C 1 ∣ x ) 1 − P ( C 1 ∣ x ) = w T x + w 0 = l o g i t ( P ( C 1 ∣ x ) ) \begin{align} log\frac{P(C_1|x)}{1-P(C_1|x)}=w^Tx+w_0=logit(P(C_1|x)) \end{align} log1P(C1x)P(C1x)=wTx+w0=logit(P(C1x))

这正是对数几率的定义

  • ( 2 ) (2) (2)移项,得:

P ( C 1 ∣ x ) = 1 1 + e − ( w T + w 0 ) P(C_1|x)=\frac{1}{1+e^{-(w^T+w_0)}} P(C1x)=1+e(wT+w0)1

( 3 ) (3) (3)式为逻辑回归的模型形式,sigmoid。

Logistic函数(也称sigmoid)

P ( C 1 ∣ x ) = 1 1 + e − ( w T + w 0 ) = s i g m o i d ( w T x + w 0 ) P(C_1|x)=\frac{1}{1+e^{-(w^T+w_0)}}=sigmoid(w^Tx+w_0) P(C1x)=1+e(wT+w0)1=sigmoid(wTx+w0)

在这里插入图片描述

sigmoid函数图像,y>0.5,选C_1

Logistic函数的一般形式

在这里插入图片描述

其中, μ \mu μ为位置参数, γ > 0 \gamma>0 γ>0为形状参数,关于 ( μ , 1 2 ) (\mu,\frac{1}{2}) (μ,21)对称

逻辑回归

逻辑回归的核心思想,在于不考虑数据分布,假定类似然密度的对数比为线性函数,那么:

l o g P ( x ∣ C 1 ) P ( x ∣ C 2 ) = w T x + w 0 0 \begin{align} log\ \frac{P(x|C_1)}{P(x|C_2)}=w^Tx+w_0^0 \end{align} log P(xC2)P(xC1)=wTx+w00

通过贝叶斯定理,将后验概率转换为似然比和先验比的乘积:

l o g P ( C 1 ∣ x ) P ( C 2 ∣ x ) = l o g P ( x ∣ C 1 ) P ( x ∣ C 2 ) + l o g P ( C 1 ) P ( C 2 ) \begin{align} log\frac{P(C_1|x)}{P(C_2|x)}=log\frac{P(x|C_1)}{P(x|C_2)}+log\frac{P(C_1)}{P(C_2)} \end{align} logP(C2x)P(C1x)=logP(xC2)P(xC1)+logP(C2)P(C1)

由公式 ( 2 ) ( 3 ) ( 4 ) (2)(3)(4) (2)(3)(4)得:

l o g i t ( P ( C 1 ∣ x ) ) = w T x + w 0 0 + l o g P ( C 1 ) P ( C 2 ) \begin{align}logit(P(C_1|x))=w^Tx+w^0_0+log\frac{P(C_1)}{P(C_2)} \end{align} logit(P(C1x))=wTx+w00+logP(C2)P(C1)

w 0 0 + l o g P ( C 1 ) P ( C 2 ) w^0_0+log\frac{P(C_1)}{P(C_2)} w00+logP(C2)P(C1)合并为新的偏置项,那么先验概率 P ( C k ) P(C_k) P(Ck)被吸收到了偏置项,模型仍保持线性:

l o g i t ( P ( C 1 ∣ x ) ) = w T x + w 0 0 logit(P(C_1|x))=w^Tx+w^0_0 logit(P(C1x))=wTx+w00

处理多类问题

我们推广二值分类至 K > 2 K>2 K>2的情形,假定:

l o g p ( x ∣ C i ) p ( x ∣ C k ) = w i T + w i 0 0 \begin{align} log\frac{p(x|C_i)}{p(x|C_k)}=w_i^T+w_{i0}^0 \end{align} logp(xCk)p(xCi)=wiT+wi00

进而:

p ( C i ∣ x ) p ( C k ∣ x ) = e w i T + w i 0 , i = 1 , 2 , ⋯ , K − 1 \begin{align} \frac{p(C_i|x)}{p(C_k|x)}=e^{w_i^T+w_{i0}},\quad i=1,2,\cdots,K-1 \end{align} p(Ckx)p(Cix)=ewiT+wi0,i=1,2,,K1

∑ i = 1 K p ( C i ∣ x ) p ( C K ∣ x ) = 1 p ( C k ∣ x ) = 1 + ∑ j = 1 K − 1 e w j x + w j 0 \begin{align} \sum_{i=1}^K\frac{p(C_i|x)}{p(C_K|x)}=\frac{1}{p(C_k|x)}= 1+\sum_{j=1}^{K-1}e^{w_jx+w_{j0}} \end{align} i=1Kp(CKx)p(Cix)=p(Ckx)1=1+j=1K1ewjx+wj0

于是:

p ( C k ∣ x ) = 1 1 + ∑ j = 1 K − 1 e w j x + w j 0 \begin{align} p(C_k|x)=\frac{1}{1+\sum_{j=1}^{K-1}e^{w_jx+w_{j0}}} \end{align} p(Ckx)=1+j=1K1ewjx+wj01

对于其它类别 i = 1 , ⋯ , K − 1 , i=1,\cdots,K-1, i=1,,K1,由公式 ( 3 ) (3) (3)得:

p ( C i ∣ x ) = e w i x + w i 0 1 + ∑ j = 1 K − 1 e w j x + w 0 \begin{align} p(C_i|x)=\frac{e^{w_ix+w_{i0}}}{1+\sum_{j=1}^{K-1}e^{w_jx+w_0}} \end{align} p(Cix)=1+j=1K1ewjx+w0ewix+wi0

将公式同一形式,对所有 i = 1 , ⋯ , K : i=1,\cdots,K: i=1,,K:

p ( C i ∣ x ) = e w i x + w i 0 ∑ j = 1 K e w j x + w j 0 , 其中 w K , w K 0 = 0 p(C_i|x)=\frac{e^{w_ix+w_{i0}}}{\sum_{j=1}^Ke^{w_jx+w_{j0}}},其中w_K,w_{K0}=0 p(Cix)=j=1Kewjx+wj0ewix+wi0,其中wK,wK0=0

softmax函数

y i = p ^ ( C i ∣ x ) = e w i x + w 0 ∑ e w j x + w j 0 y_i=\hat p(C_i|x)=\frac{e^{w_ix+w_0}}{\sum e^{w_jx+w_{j0}}} yi=p^(Cix)=ewjx+wj0ewix+w0

如果一个类C的判别式加权函数值明显大于其它类的加权和,那么 y i y_i yi接近于1,将数值限定在了 [ 0 , 1 ] [0,1] [0,1]之间,可以用概率表示。

逻辑回归与最大熵模型

逻辑回归和最大熵模型可以认为是同一类模型的不同表现形式。

在这里插入图片描述

逻辑回归的训练——梯度下降法

逻辑回归交叉熵损失函数:

E = − ∑ [ r l o g y + ( 1 − r ) l o g ( 1 − y ) ] E=-\sum [rlogy+(1-r)log(1-y)] E=[rlogy+(1r)log(1y)]

对E求偏导,乘以学习率,为更新方向:

△ w j = − η ∂ E ∂ w j = η ∑ ( r − y ) x j \triangle w_j=-\eta\frac{\partial E}{\partial w_j}=\eta\sum(r-y)x_j wj=ηwjE=η(ry)xj

http://www.xdnf.cn/news/3202.html

相关文章:

  • 使用 ossutil 上传文件到阿里云 OSS
  • 基于连接感知的实时困倦分类图神经网络
  • 【数学】角谷猜想
  • 服务器热备份,服务器热备份的方法有哪些?
  • 猿人学web端爬虫攻防大赛赛题第13题——入门级cookie
  • 完美解决react-native文件直传阿里云oss问题一
  • Android学习总结之自定义view设计模式理解
  • Redis热key大key详解
  • ESP32开发-通过ENC28J60模块实现以太网设备
  • 从实列中学习linux shell6: 写一个 shell 脚本 过滤 恶意ip 攻击
  • css 数字从0开始增加的动画效果
  • 【数学建模国奖速成系列】优秀论文绘图复现代码(二)
  • DeepSeek V1:初代模型的架构与性能
  • 艺术与科技的双向奔赴——高一鑫荣获加州联合表彰
  • Java ResourceBundle 资源绑定详解
  • 腾讯元宝桌面客户端:基于Tauri的开源技术解析
  • Python GIL 与 pybind11 GIL管理机制
  • 模拟flexible.js 前端开发中的大屏布局方案
  • Hadoop虚拟机中配置hosts
  • 评价类模型数据预处理(定量指标值的无量纲化处理)
  • 从零构建 MCP Server 与 Client:打造你的第一个 AI 工具集成应用
  • 如何禁止AutoCAD这类软件联网
  • Go语言的发展历史 -《Go语言实战指南》
  • Copilot:您的AI伴侣-微软50周年系列更新
  • 《Java高级编程:从原理到实战 - 进阶知识篇一》
  • 【阿里云大模型高级工程师ACP学习笔记】2.7 通过微调增强模型能力 (下篇)(⭐️⭐️⭐️ 重点章节!!!)
  • C#学习第20天:垃圾回收
  • C#规避内存泄漏的编码方法
  • ZStack Cloud 5.3.28正式发布
  • 【蓝桥杯省赛真题59】Scratch收集松果 蓝桥杯scratch图形化编程 中小学生蓝桥杯省赛真题讲解