当前位置: 首页 > news >正文

【动手学深度学习】2.4. 微积分


目录

    • 2.4. 微积分
      • 1)导数和微分
      • 2)偏导数
      • 3)梯度
      • 4)链式法则
      • 5)小结


.

2.4. 微积分

微积分的起源

  • 古希腊人通过逼近法(多边形边数↑ → 面积逼近圆)发展出积分的思想。

  • 微分,在 2000 多年后被发明,主要用于解决优化问题。

深度学习中的应用

  • 优化(optimization):用模型拟合观测数据的过程;

  • 泛化(generalization):数学原理和实践者的智慧,能够指导我们生成出有效性超出用于训练的数据集本身的模型。

微积分是深度学习中不可或缺的一部分,主要用于优化问题。为了帮助更好理解深度学习中的优化问题,将介绍深度学习中常用的微分知识。

.

1)导数和微分

导数是微积分基础概念之一。可解释为函数相对其变量的瞬时变化率。假设我们有个函数 f(x) ,其导数定义为:
f ′ ( x ) = lim ⁡ h → 0 f ( x + h ) − f ( x ) h f'(x) = \lim_{h \to 0} \frac{f(x+h) - f(x)}{h} f(x)=h0limhf(x+h)f(x)

导数的计算在深度学习中非常重要,因为它是几乎所有优化算法的关键步骤。

(1)代码示例

以下是一个计算函数 f ( x ) = 3 x 2 − 4 x f(x) = 3x^2 - 4x f(x)=3x24x在 x = 1 处导数的代码示例:

import numpy as npdef f(x):return 3 * x ** 2 - 4 * xdef numerical_lim(f, x, h):return (f(x + h) - f(x)) / hh = 0.1
for i in range(5):print(f'h={h:.5f}, numerical limit={numerical_lim(f, 1, h):.5f}')h *= 0.1

输出结果:

h=0.10000, numerical limit=2.30000
h=0.01000, numerical limit=2.03000
h=0.00100, numerical limit=2.00300
h=0.00010, numerical limit=2.00030
h=0.00001, numerical limit=2.00003

从结果可以看出,当 h 趋近于 0 时,(f(x + h) - f(x)) / h 的数值结果接近 2 。

(2)导数和微分符号

对于导数有:

f ′ ( x ) = y ′ = d y d x = d f d x = d d x f ( x ) = D f ( x ) = D x f ( x ) f'(x) = y' = \frac{dy}{dx} = \frac{df}{dx} = \frac{d}{dx} f(x) = Df(x) = D_x f(x) f(x)=y=dxdy=dxdf=dxdf(x)=Df(x)=Dxf(x)

其中, d d x 和 D \frac{d}{dx}和D dxdD微分运算符,表示微分操作。 对常见函数求微分:

  • D C = 0 DC = 0 DC=0 (C是一个常数)

  • D x n = n x n − 1 Dx^n = nx^{n-1} Dxn=nxn1幂律(power rule),n是任意实数)

  • D e x = e x De^x = e^x Dex=ex

  • D ln ⁡ ( x ) = 1 / x D\ln(x) = 1/x Dln(x)=1/x

微分法则:

若 f 和 g 都是可微的函数,且 C 是常数,那么以下法则适用:

  • 常数相乘法则: d d x [ C f ( x ) ] = C d d x f ( x ) \frac{d}{dx} [Cf(x)] = C \frac{d}{dx} f(x) dxd[Cf(x)]=Cdxdf(x)

  • 加法法则: d d x [ f ( x ) + g ( x ) ] = d d x f ( x ) + d d x g ( x ) \frac{d}{dx} [f(x) + g(x)] = \frac{d}{dx} f(x) + \frac{d}{dx} g(x) dxd[f(x)+g(x)]=dxdf(x)+dxdg(x)

  • 乘法法则: d d x [ f ( x ) g ( x ) ] = f ( x ) d d x [ g ( x ) ] + g ( x ) d d x [ f ( x ) ] \frac{d}{dx} [f(x)g(x)] = f(x) \frac{d}{dx} [g(x)] + g(x) \frac{d}{dx} [f(x)] dxd[f(x)g(x)]=f(x)dxd[g(x)]+g(x)dxd[f(x)]

  • 除法法则: d d x [ f ( x ) g ( x ) ] = g ( x ) d d x [ f ( x ) ] − f ( x ) d d x [ g ( x ) ] [ g ( x ) ] 2 \frac{d}{dx} \left[\frac{f(x)}{g(x)}\right] = \frac{g(x) \frac{d}{dx} [f(x)] - f(x) \frac{d}{dx} [g(x)]}{[g(x)]^2} dxd[g(x)f(x)]=[g(x)]2g(x)dxd[f(x)]f(x)dxd[g(x)]

.

2)偏导数

目前为止,我们只讨论了仅含一个变量的函数的微分。在深度学习中,函数通常依赖于许多变量。因此,我们需要将微分的思想推广到多元函数(multivariate function)上。

y = f ( x 1 ​ , x 2 ​ , … , x n ​ ) y=f(x_1​,x_2​,…,x_n​) y=f(x1,x2,,xn) 是一个具有 n 个变量的函数。y 关于第 i 个参数 x i x_i xi​ 的偏导数(partial derivative)为:

∂ y ∂ x i = lim ⁡ h → 0 f ( x 1 , … , x i − 1 , x i + h , x i + 1 , … , x n ) − f ( x 1 , … , x i , … , x n ) h \frac{\partial y}{\partial x_i} = \lim_{h \to 0} \frac{f(x_1, \ldots, x_{i-1}, x_i + h, x_{i+1}, \ldots, x_n) - f(x_1, \ldots, x_i, \ldots, x_n)}{h} xiy=h0limhf(x1,,xi1,xi+h,xi+1,,xn)f(x1,,xi,,xn)

为了计算​ ∂ y ∂ x i \frac{\partial y}{\partial x_i} xiy,我们可以简单地将 x 1 ​ , … , x i − 1 ​ , x i + 1 ​ , … , x n x_1​,…,x_{i−1}​,x_{i+1}​,…,x_n x1,,xi1,xi+1,,xn​ 看作常数,并计算 y 关于 x i x_i xi​ 的导数。对于偏导数的表示,以下是等价的:

∂ y ∂ x i = ∂ f ∂ x i = f x i = f i = D i f = D x i f \frac{\partial y}{\partial x_i} = \frac{\partial f}{\partial x_i} = f_{x_i} = f_i = D_i f = D_{x_i} f xiy=xif=fxi=fi=Dif=Dxif

.

3)梯度

我们可以连结一个多元函数对其所有变量的偏导数,以得到该函数的梯度(gradient)向量。具体而言,设函数 f : R n → R f : \mathbb{R}^{n} \to \mathbb{R} f:RnR 的输入是一个列向量 x = [ x 1 , x 2 , … , x n ] ⊤ x = [x_1, x_2, \ldots, x_n]^\top x=[x1,x2,,xn],并且输出是一个标量。函数 f ( x ) f(x) f(x) 相对于 x x x 的梯度是一个包含 n n n 个偏导数的向量:

∇ x f ( x ) = [ ∂ f ( x ) ∂ x 1 , ∂ f ( x ) ∂ x 2 , ⋯ , ∂ f ( x ) ∂ x n ] ⊤ \nabla_{\mathbf{x}} f(\mathbf{x}) = \left[ \frac{\partial f(\mathbf{x})}{\partial x_1}, \frac{\partial f(\mathbf{x})}{\partial x_2}, \cdots, \frac{\partial f(\mathbf{x})}{\partial x_n} \right]^\top xf(x)=[x1f(x),x2f(x),,xnf(x)]

其中 ∇ x f ( x ) \nabla_x f(x) xf(x) 通常在没有歧义时简写为 ∇ f ( x ) \nabla f(x) f(x)

假设 x x x n n n 维向量,在微分多元函数中经常使用以下规则:

  • 对于所有 A ∈ R m × n A \in \mathbb{R}^{m \times n} ARm×n,有 ∇ x ( A x ) = A ⊤ \nabla_x (Ax) = A^\top x(Ax)=A

  • 对于所有 A ∈ R n × m A \in \mathbb{R}^{n \times m} ARn×m,有 ∇ x ( x ⊤ A ) = A \nabla_x (x^\top A) = A x(xA)=A

  • 对于所有 A ∈ R n × n A \in \mathbb{R}^{n \times n} ARn×n,有 ∇ x ( x ⊤ A x ) = ( A + A ⊤ ) x \nabla_x (x^\top A x) = (A + A^\top)x x(xAx)=(A+A)x

  • ∇ x ∥ x ∥ 2 = ∇ x ( x ⊤ x ) = 2 x \nabla_x \|x\|^2 = \nabla_x (x^\top x) = 2x xx2=x(xx)=2x

同样,对于任何矩阵 X X X,有 ∇ X ∥ X ∥ F 2 = 2 X \nabla_X \|X\|_F^2 = 2X XXF2=2X。梯度在深度学习优化算法的设计中具有重要作用。

.

4)链式法则

然而,上面方法可能很难找到梯度。这是因为在深度学习中,多元函数通常是复合(composite)的,所以难以应用上述任何规则来微分这些函数。幸运的是,链式法则可以被用来微分复合函数

让我们先考虑单变量函数。假设函数 y = f ( u ) y = f(u) y=f(u) u = g ( x ) u = g(x) u=g(x) 都是可微的,根据链式法则:

d y d x = d y d u ⋅ d u d x \frac{dy}{dx} = \frac{dy}{du} \cdot \frac{du}{dx} \quad dxdy=dudydxdu

现在考虑一个更一般的场景,即函数具有任意数量的变量的情况。假设可微分函数 y y y 有变量 u 1 , u 2 , … , u m u_1, u_2, \ldots, u_m u1,u2,,um,其中每个可微分函数 u i u_i ui 都有变量 x 1 , x 2 , … , x n x_1, x_2, \ldots, x_n x1,x2,,xn。注意, y y y x 1 , x 2 , … , x n x_1, x_2, \ldots, x_n x1,x2,,xn 的函数。对于任意 i = 1 , 2 , … , n i = 1, 2, \ldots, n i=1,2,,n,链式法则给出:

∂ y ∂ x i = ∂ y ∂ u 1 ⋅ ∂ u 1 ∂ x i + ∂ y ∂ u 2 ⋅ ∂ u 2 ∂ x i + ⋯ + ∂ y ∂ u m ⋅ ∂ u m ∂ x i \frac{\partial y}{\partial x_i} = \frac{\partial y}{\partial u_1} \cdot \frac{\partial u_1}{\partial x_i} + \frac{\partial y}{\partial u_2} \cdot \frac{\partial u_2}{\partial x_i} + \cdots + \frac{\partial y}{\partial u_m} \cdot \frac{\partial u_m}{\partial x_i} \quad xiy=u1yxiu1+u2yxiu2++umyxium

.

5)小结

  • 微分和积分是微积分的两个分支,前者可以应用于深度学习中的优化问题。

  • 导数可以被解释为函数相对于其变量的瞬时变化率,它也是函数曲线的切线的斜率。

  • 梯度是一个向量,其分量是多变量函数相对于其所有变量的偏导数。

  • 链式法则可以用来微分复合函数。

.


声明:资源可能存在第三方来源,若有侵权请联系删除!

http://www.xdnf.cn/news/734455.html

相关文章:

  • Python中openpyxl库的基础解析与代码实例
  • NIO----JAVA
  • API:解锁网络世界的无限可能
  • Leetcode 340. 至多包含 K 个不同字符的最长子串
  • Java并发
  • [特殊字符] 超强 Web React版 PDF 阅读器!支持分页、缩放、旋转、全屏、懒加载、缩略图!
  • Elasticsearch的写入流程介绍
  • vscode实时预览编辑markdown
  • 树莓派安装openwrt搭建软路由(ImmortalWrt固件方案)
  • <3>, 常用控件
  • wheelgames
  • C++17新特性 类型推导
  • 虚拟化数据恢复—XenServer虚拟机虚拟磁盘文件丢失的数据恢复案例
  • 集成测试 maestro-我的第一个flow以及第一次云端测试
  • React和原生事件的区别
  • π0-FAST-针对VLA模型的高效动作token化技术-2025.1.16-开源
  • 使用 Fetch + Streams 处理流式响应(Streaming Response)
  • Odoo OWL 框架深度研究(VIP10万字版)
  • 特伦斯 S75 电钢琴:重构演奏美学的极致表达
  • 小黑大语言模型应用探索:langchain智能体构造源码demo搭建1(初步流程)
  • OptiStruct实例:消声器前盖ERP分析(2)RADSND基础理论
  • 深入解析 Redis Cluster 架构与实现(二)
  • 【sa-token】 sa-token非 web 上下文无法获取 HttpServletRequest。
  • 数据结构:导论
  • SpringBatch+Mysql+hanlp简版智能搜索
  • matlab计算转子系统的固有频率、振型、不平衡响应
  • StringBuilder对象的操作
  • cocos creator资源管理器,资源动态加载和释放
  • 基于Qt封装数据库基本增删改查操作,支持多线程,并实现SQLite数据库单例访问
  • 【google 论文】Titans: Learning to Memorize at Test Time