当前位置: 首页 > news >正文

基础NLP | 02 深度学习基本原理

文章目录

  • 深度学习基本原理
    • 数学基础
      • 线代
      • numpy 常用操作
      • 导数, 梯度
      • 梯度下降法
        • 梯度下降代码 GradientDescent.py
        • 反向传播
        • 完整的反向传播过程
        • 权重更新方式
  • pytorch
      • 网络结构
        • 全连接层 (线性层)
          • 例子 - 手动实现模拟一个线性层 DNNforward.py
        • 激活函数
          • 激活函数-Sigmoid
          • 激活函数-tanh
          • 激活函数-relu
          • 激活函数-Gelu
          • 激活函数-Softmax
      • 损失函数
        • 均方差
        • 交叉熵
          • 例子-手动实现交叉熵-CrossEntropy.py
      • 代码 - 二分类任务

深度学习基本原理

数学基础

线代

向量运算

  • 加和
  • 内积
  • 向量夹角余旋值

矩阵

  • 加法
  • 乘法
  • 转置

向量到矩阵的互转

reshape

张量 tensor

将三个 2x2的矩阵排列在一起,就可以称之为3x2x2的张量

是神经网络的训练中最为常见的数据形式,维度相同的几个矩阵放在一起

这是2x2x2的张量
[ [ [ 1 , 2 ] , [ 3 , 4 ] ] , [ [ 5 , 6 ] , [ 7 , 8 ] ] ] \begin{bmatrix} [[1,2],\\ [3,4]],\\ [[5,6],\\ [7,8]]\end{bmatrix} [[1,2],[3,4]],[[5,6],[7,8]]
张量的常见操作

转置 x.transpose(1,2)
[ [ [ 1 , 3 ] , [ 2 , 4 ] ] , [ [ 5 , 7 ] , [ 6 , 8 ] ] ] \begin{bmatrix} [[1,3],\\ [2,4]],\\ [[5,7],\\ [6,8]]\end{bmatrix} [[1,3],[2,4]],[[5,7],[6,8]]
在上面的基础上转置 x.transpose(0,1)
[ [ [ 1 , 2 ] , [ 5 , 6 ] ] , [ [ 3 , 4 ] , [ 7 , 8 ] ] ] \begin{bmatrix} [[1,2],\\ [5,6]],\\ [[3,4],\\ [7,8]]\end{bmatrix} [[1,2],[5,6]],[[3,4],[7,8]]

numpy 常用操作

import numpy as np
import torchx = np.array([[1,2,3],[4,5,6]])print(x)
print(x.ndim)#维度  2
print(x.shape)# 获取行列维度  (2, 3)
print(x.size)#一共多少个数字  6
print(x.dtype)#类型   int64
print(np.sum(x))#矩阵内所有元素的和 21
print(np.sum(x,axis=0))#行相加 [5 7 9]
print(np.sum(x,axis=1))#列相加 [ 6 15]
print(np.reshape(x,(3,2)))#变换维度[[1 2]#[3 4]#[5 6]]#[[1.         1.41421356 1.73205081]#[2.         2.23606798 2.44948974]]
print(np.sqrt(x))#每个数字开平方#[[  2.71828183   7.3890561   20.08553692]
# [ 54.59815003 148.4131591  403.42879349]]
print(np.exp(x))#每个数求指数
print(x.transpose())#转置
print(x.flatten())#变成一维向量 [1 2 3 4 5 6]x = torch.FloatTensor(x)
print(x.shape)#torch.Size([2, 3])
#tensor([[  2.7183,   7.3891,  20.0855],# [ 54.5981, 148.4132, 403.4288]])
print(torch.exp(x))
print(torch.sum(x))#tensor(21.)
print(torch.sum(x,dim=0))#tensor([5., 7., 9.])
print(torch.sum(x,dim=1))#tensor([ 6., 15.])
'''
tensor([[1., 4.],[2., 5.],[3., 6.]])
'''
print(x.transpose(1,0))
print(x.flatten())#tensor([1., 2., 3., 4., 5., 6.])

导数, 梯度

表示函数变化的方向
f ′ ( x 0 ) = l i m Δ y Δ x = l i m f ( x 0 + Δ x ) − f ( x 0 ) Δ x f'(x_0) = lim\frac{\Delta y}{\Delta x} = lim \frac{f(x_0 + \Delta x) - f(x_0)}{\Delta x} f(x0)=limΔxΔy=limΔxf(x0+Δx)f(x0)
求导法则

  • 加法
  • 乘法
  • 除法
  • 链式求导

梯度

多元函数的导数

原函数: y = 3 x 1 2 + 4 x 2 2 + 5 x 3 2 y = 3x_1^2 + 4x_2^2 + 5x_3^2 y=3x12+4x22+5x32

导函数: y = 6 x 1 + 8 x 2 + 10 x 3 y = {6x_1 + 8x_2 + 10x_3} y=6x

http://www.xdnf.cn/news/1180171.html

相关文章:

  • PDF转Markdown - Python 实现方案与代码
  • 爬虫逆向--Day12--DrissionPage案例分析【小某书评价数据某东评价数据】
  • 使用爬虫获取游戏的iframe地址
  • 2025最新MySQL面试题实战记录,互联网公司常问题目
  • Mac电脑开发Python(基于vs code)
  • M²IV:面向大型视觉-语言模型中高效且细粒度的多模态上下文学习
  • 数字系统自动设计:从C++到门级网表
  • 如何使用 pdfMake 中文字体
  • 排序初识(上)-- 讲解超详细
  • Unity 多人游戏框架学习系列九
  • nuxt更改页面渲染的html,去除自定义属性、
  • 在Ubuntu上使用QEMU学习RISC-V程序(2)gdb调试
  • Java面试宝典:Spring专题二
  • 回调后门 函数
  • 如何彻底清除服务器上的恶意软件与后门
  • 基于Matlab图像处理的水果分级系统
  • Compose 适配 - 键鼠模式
  • Linux和Windows基于V4L2和TCP的QT监控
  • JavaWeb学习打卡13(JSP原理解析)
  • 【0基础PS】PS(Photoshop)与Ai( Illustrator )等相似软件区别
  • 内网IM:BeeWorks私有化部署的安全通讯解决方案
  • Linux命令基础完结篇
  • Windows 11下纯软件模拟虚拟机的设备模拟与虚拟化(仅终端和网络)
  • 【C++】类和对象(1)
  • go项目实战二
  • ESP32- 项目应用1 智能手表 之更新天气#4
  • Rust与YOLO目标检测实战
  • OpenLayers 综合案例-基础图层控制
  • ddos 放在多个云主机,同时运行
  • vue递归树形结构删除不符合数据 生成一个新数组