【知识储备】PyTorch / TensorFlow 和张量的联系
目录
张量的概念
1. 数学/物理中的张量
2. 计算机科学/深度学习中的张量
✅ 总结:
PyTorch / TensorFlow 和张量的联系
1. 为什么要用张量?
2. 联系
3. 举个例子
✅ 总结:
张量的概念
张量(Tensor)这个概念在不同领域(数学、物理、计算机科学/深度学习)中有稍微不同的定义,但核心思想是一致的:它是一个多维数据结构,可以看作是向量和矩阵的推广。
1. 数学/物理中的张量
在数学和物理中,张量是一个在坐标变换下具有特定变换规律的对象。
-
标量(scalar):0阶张量
-
向量(vector):1阶张量
-
矩阵(matrix):2阶张量
-
更高维的数据结构:3阶、4阶……张量
一般来说,张量可以用一个多重下标数组来表示,例如:Tijk
表示一个三阶张量。
其关键性质是:
-
在坐标变换时,张量的分量按一定规则变化,但整个张量描述的几何/物理对象保持不变。
-
因此张量被广泛用于描述物理量(如应力张量、惯性张量、电磁场张量等)。
2. 计算机科学/深度学习中的张量
在机器学习和深度学习中,张量主要指一种多维数组数据结构,是数值存储和计算的基本单位。
阶(Rank)/ 维度(Dimension)
-
0阶张量:标量(scalar),如
3
-
1阶张量:向量(vector),如
<[1, 2, 3]