图解AI数学基础 | 线性代数与矩阵论

这篇具有很好参考价值的文章主要介绍了图解AI数学基础 | 线性代数与矩阵论。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

图解AI数学基础 | 线性代数与矩阵论

1.标量(Scalar)

一个标量就是一个单独的数。只具有数值大小,没有方向(部分有正负之分),运算遵循一般的代数法则。

图解AI数学基础 | 线性代数与矩阵论,图解AI数学基础:从入门到精通系列教程,线性代数,人工智能,矩阵

  • 一般用小写的变量名称表示。
  • 质量mmm、速率vvv、时间ttt、电阻ρ\rhoρ 等物理量,都是数据标量。

2.向量(Vector)

向量指具有大小和方向的量,形态上看就是一列数。

图解AI数学基础 | 线性代数与矩阵论,图解AI数学基础:从入门到精通系列教程,线性代数,人工智能,矩阵

  • 通常赋予向量粗体小写的名称;手写体则在字母上加一个向右的箭头。
  • 向量中的元素是有序排列的,通过索引可以确定每个元素。
  • 以下两种方式,可以明确表示向量中的元素时(注意用方括号)。
  • 可以把向量看作空间中的有向线段,向量的每个组成元素,对应向量在不同的坐标轴上的投影长度。

AI中的应用:在机器学习中,单条数据样本的表征都是以向量化的形式来完成的。向量化的方式可以帮助AI算法在迭代与计算过程中,以更高效的方式完成。

3.矩阵(Matrix)

矩阵是二维数组,其中的每一个元素被两个索引确定。矩阵在机器学习中至关重要,无处不在。

图解AI数学基础 | 线性代数与矩阵论,图解AI数学基础:从入门到精通系列教程,线性代数,人工智能,矩阵

  • 通常会赋予矩阵粗体大写的变量名称。

AI中的应用:样本以矩阵形态表示:mmm条数据/样本,nnn个特征的数据集,就是一个m×nm \times nm×n的矩阵。

4.张量(Tensor)

几何代数中定义的张量,是基于向量和矩阵的推广。

  • 标量,可以视为零阶张量
  • 向量,可以视为一阶张量
  • 矩阵,可以视为二阶张量

图解AI数学基础 | 线性代数与矩阵论,图解AI数学基础:从入门到精通系列教程,线性代数,人工智能,矩阵

图解AI数学基础 | 线性代数与矩阵论,图解AI数学基础:从入门到精通系列教程,线性代数,人工智能,矩阵

  • 图片以矩阵形态表示:将一张彩色图片表示成一个H×W×CH \times W \times CH×W×C的三阶张量,其中HHH是高,WWW是宽,CCC通常取3,表示彩色图3个颜色通道。

  • 在这个例子的基础上,将这一定义继续扩展,即:用四阶张量(样本,高度,宽度,通道)表示一个包含多张图片的数据集,其中,样本表示图片在数据集中的编号。

  • 用五阶张量(样本,帧速,高度,宽度,通道)表示视频。

AI中的应用:张量是深度学习中一个非常重要的概念,大部分的数据和权重都是以张量的形态存储的,后续的所有运算和优化算法也都是基于张量进行的。

5.范数(Norm)

范数是一种强化了的距离概念;简单来说,可以把『范数』理解为『距离』。

在数学上,范数包括『向量范数』和『矩阵范数』:

  • 向量范数(Vector Norm),表征向量空间中向量的大小。向量空间中的向量都是有大小的,这个大小就是用范数来度量。不同的范数都可以来度量这个大小,就好比米和尺都可以来度量远近一样。
  • 矩阵范数(Matrix Norm),表征矩阵引起变化的大小。比如,通过运算AX=B\boldsymbol{A}\boldsymbol{X} = \boldsymbol{B}AX=B,可以将向量X\boldsymbol{X}X变化为B\boldsymbol{B}B,矩阵范数就可以度量这个变化的大小。

图解AI数学基础 | 线性代数与矩阵论,图解AI数学基础:从入门到精通系列教程,线性代数,人工智能,矩阵

向量范数的计算

对于p−\mathrm{p} -p−范数,如果x=[x1,x2,⋯ ,xn]T\boldsymbol{x}=\left[x_{1}, x_{2}, \cdots, x_{n}\right]^{\mathrm{T}}x=[x1,x2,⋯,xn]T,那么向量x\boldsymbol{x}x的p−\mathrm{p} -p−范数就是∥x∥p=(∣x1∣p+∣x2∣p+⋯+∣xn∣p)1p|\boldsymbol{x}|{p}=\left(\left|x{1}\right|{p}+\left|x_{2}\right|{p}+\cdots+\left|x_{n}\right|{p}\right){\frac{1}{p}}∥x∥p=(∣x1∣p+∣x2∣p+⋯+∣xn∣p)p1。

L1范数:∣∣x∣∣1=∣x1∣+∣x2∣+∣x3∣+⋯+∣xn∣|| \boldsymbol{x}||{1}=\left|x{1}\right|+\left|x_{2}\right|+\left|x_{3}\right|+\cdots+\left|x_{n}\right|∣∣x∣∣1=∣x1∣+∣x2∣+∣x3∣+⋯+∣xn∣

  • p=1\mathrm{p} =1p=1时,就是L1范数,是x\boldsymbol{x}x向量各个元素的绝对值之和。
  • L1范数有很多的名字,例如我们熟悉的曼哈顿距离、最小绝对误差等。

L2范数:∥x∥2=(∣x1∣2+∣x2∣2+∣x3∣2+⋯+∣xn∣2)1/2|\boldsymbol{x}|{2}=\left(\left|x{1}\right|{2}+\left|x_{2}\right|{2}+\left|x_{3}\right|{2}+\cdots+\left|x_{n}\right|{2}\right)^{1 / 2}∥x∥2=(∣x1∣2+∣x2∣2+∣x3∣2+⋯+∣xn∣2)1/2

  • p=2\mathrm{p} =2p=2时,就是L2范数,是x\boldsymbol{x}x向量各个元素平方和的开方。
  • L2范数是我们最常用的范数,欧氏距离就是一种L2范数。

AI中的应用:在机器学习中,L1范数和L2范数很常见,比如『评估准则的计算』、『损失函数中用于限制模型复杂度的正则化项』等。

6.特征分解(Eigen-decomposition)

将数学对象分解成多个组成部分,可以找到他们的一些属性,或者能更高地理解他们。例如,整数可以分解为质因数,通过12=2×3×312=2 \times 3 \times 312=2×3×3可以得到『12的倍数可以被3整除,或者12不能被5整除』。

同样,我们可以将『矩阵』分解为一组『特征向量』和『特征值』,来发现矩阵表示为数组元素时不明显的函数性质。特征分解(Eigen-decomposition)是广泛使用的矩阵分解方式之一。

图解AI数学基础 | 线性代数与矩阵论,图解AI数学基础:从入门到精通系列教程,线性代数,人工智能,矩阵

  • 特征向量:方阵A\boldsymbol{A}A的特征向量,是指与A\boldsymbol{A}A相乘后相当于对该向量进行缩放的非零向量,即Aν=λν\boldsymbol{A}\nu =\lambda \nuAν=λν。
  • 特征值:标量λ\lambdaλ被称为这个特征向量对应的特征值。

使用特征分解去分析矩阵A\boldsymbol{A}A时,得到特征向量ν\nuν构成的矩阵Q\boldsymbol{Q}Q和特征值构成的向量Λ\boldsymbol{\Lambda }Λ,我们可以重新将A\boldsymbol{A}A写作:A=QΛQ−1\boldsymbol{A} = \boldsymbol{Q} \boldsymbol{\Lambda} \boldsymbol{Q}^{-1}A=QΛQ−1

7.奇异值分解(Singular Value Decomposition,SVD)

矩阵的特征分解是有前提条件的。只有可对角化的矩阵,才可以进行特征分解。实际很多矩阵不满足这一条件,这时候怎么办呢?

将矩阵的『特征分解』进行推广,得到一种被称为『矩阵的奇异值分解』的方法,即将一个普通矩阵分解为『奇异向量』和『奇异值』。通过奇异值分解,我们会得到一些类似于特征分解的信息。

图解AI数学基础 | 线性代数与矩阵论,图解AI数学基础:从入门到精通系列教程,线性代数,人工智能,矩阵

将矩阵A\boldsymbol{A}A分解成三个矩阵的乘积A=UDV−1\boldsymbol{A} = \boldsymbol{U} \boldsymbol{D} \boldsymbol{V}^{-1}A=UDV−1。

  • 假设A\boldsymbol{A}A是一个m∗nmnm∗n矩阵,那么U\boldsymbol{U}U是一个m∗mmmm∗m矩阵,DDD是一个m∗nmnm∗n矩阵,VVV是一个n∗nnnn∗n矩阵。
  • UVD\boldsymbol{U} \boldsymbol{V} \boldsymbol{D}UVD这几个矩阵都拥有特殊的结构:
    • U\boldsymbol{U}U和V\boldsymbol{V}V都是正交矩阵,矩阵U\boldsymbol{U}U的列向量被称为左奇异向量,矩阵V\boldsymbol{V}V 的列向量被称右奇异向量。
    • D\boldsymbol{D}D是对角矩阵(注意,D\boldsymbol{D}D不一定是方阵)。对角矩阵D\boldsymbol{D}D对角线上的元素被称为矩阵A\boldsymbol{A}A的奇异值。

AI中的应用:SVD最有用的一个性质可能是拓展矩阵求逆到非方矩阵上。而且大家在推荐系统中也会见到基于SVD的算法应用。

8.Moore-Penrose广义逆/伪逆(Moore-Penrose Pseudoinverse)

假设在下面问题中,我们想通过矩阵A\boldsymbol{A}A的左逆B\boldsymbol{B}B来求解线性方程:Ax=y\boldsymbol{A} x=yAx=y,等式两边同时左乘左逆B后,得到:x=Byx=\boldsymbol{B} yx=By。是否存在唯一的映射将A\boldsymbol{A}A映射到B\boldsymbol{B}B,取决于问题的形式:

  • 如果矩阵A\boldsymbol{A}A的行数大于列数,那么上述方程可能没有解;
  • 如果矩阵A\boldsymbol{A}A的行数小于列数,那么上述方程可能有多个解。

Moore-Penrose伪逆使我们能够解决这种情况,矩阵A\boldsymbol{A}A的伪逆定义为:

A+=lim⁡a→0(ATA+αI)−1AT\boldsymbol{A}^{+}=\lim _{a \rightarrow 0}\left(\boldsymbol{A}^{T} \boldsymbol{A}+\alpha \boldsymbol{I}\right)^{-1} \boldsymbol{A}^{T}A+=lima→0(ATA+αI)−1AT

图解AI数学基础 | 线性代数与矩阵论,图解AI数学基础:从入门到精通系列教程,线性代数,人工智能,矩阵

但是计算伪逆的实际算法没有基于这个式子,而是使用下面的公式:

A+=UD+VT\boldsymbol{A}^{+}=\boldsymbol{U} \boldsymbol{D}^{+} \boldsymbol{V}^{T}A+=UD+VT

  • 矩阵U\boldsymbol{U}U、D\boldsymbol{D}D和VT\boldsymbol{V}^{T}VT是矩阵A\boldsymbol{A}A奇异值分解后得到的矩阵;
  • 对角矩阵D\boldsymbol{D}D的伪逆D+\boldsymbol{D}^{+}D+是其非零元素取倒之后再转置得到的。

9.常用的距离度量

在机器学习里,大部分运算都是基于向量的,一份数据集包含n个特征字段,那每一条样本就可以表示为n维的向量,通过计算两个样本对应向量之间的距离值大小,有些场景下能反映出这两个样本的相似程度。还有一些算法,像KNN和K-means,非常依赖距离度量。

设有两个nnn维变量:

A=[x11,x12,…,x1n]TA=[ x_{11}, x_{12},…,x_{1n} ] ^{T}A=[x11,x12,…,x1n]T

B=[x21,x22,…,x2n]TB=[ x_{21} ,x_{22} ,…,x_{2n} ] ^{T}B=[x21,x22,…,x2n]T

一些常用的距离公式定义如下

图解AI数学基础 | 线性代数与矩阵论,图解AI数学基础:从入门到精通系列教程,线性代数,人工智能,矩阵

1)曼哈顿距离(Manhattan Distance)

图解AI数学基础 | 线性代数与矩阵论,图解AI数学基础:从入门到精通系列教程,线性代数,人工智能,矩阵

曼哈顿距离也称为城市街区距离,数学定义如下:

d12=∑k=1n∣x1k−x2k∣d_{12} =\sum_{k=1}^{n}{| x_{1k}-x_{2k} | }d12=∑k=1n∣x1k−x2k∣

曼哈顿距离的Python实现

python复制代码import numpy as np
vector1 = np.array([1,2,3])
vector2 = np.array([4,5,6])

manhaton_dist = np.sum(np.abs(vector1-vector2))
print("曼哈顿距离为", manhaton_dist)

前往我们的在线编程环境运行代码:blog.showmeai.tech/python3-com…

2)欧氏距离(Euclidean Distance)

图解AI数学基础 | 线性代数与矩阵论,图解AI数学基础:从入门到精通系列教程,线性代数,人工智能,矩阵

欧氏距离其实就是L2范数,数学定义如下:

d12=∑k=1n(x1k−x2k)2d_{12} =\sqrt{\sum_{k=1}^{n}{( x_{1k} -x_{2k} ) ^{2} } }d12=∑k=1n(x1k−x2k)2

欧氏距离的Python实现

python复制代码import numpy as np
vector1 = np.array([1,2,3])
vector2 = np.array([4,5,6])

eud_dist = np.sqrt(np.sum((vector1-vector2)**2))
print("欧式距离为", eud_dist)

前往我们的在线编程环境运行代码:blog.showmeai.tech/python3-com…

3)闵氏距离(Minkowski Distance)

图解AI数学基础 | 线性代数与矩阵论,图解AI数学基础:从入门到精通系列教程,线性代数,人工智能,矩阵

从严格意义上讲,闵可夫斯基距离不是一种距离,而是一组距离的定义:

d12=∑k=1n(x1k−x2k)ppd_{12} =\sqrt[p]{\sum_{k=1}^{n}{( x_{1k} -x_{2k} ) ^{p} } }d12=p∑k=1n(x1k−x2k)p

实际上,当p=1p=1p=1时,就是曼哈顿距离;当p=2p=2p=2时,就是欧式距离。

前往我们的在线编程环境运行代码:blog.showmeai.tech/python3-com…

4)切比雪夫距离(Chebyshev Distance)

图解AI数学基础 | 线性代数与矩阵论,图解AI数学基础:从入门到精通系列教程,线性代数,人工智能,矩阵

切比雪夫距离就是无穷范数,数学表达式如下:

d12=max(∣x1k−x2k∣)d_{12} =max( | x_{1k}-x_{2k} |)d12=max(∣x1k−x2k∣)

切比雪夫距离的Python实现如下

python复制代码import numpy as np
vector1 = np.array([1,2,3])
vector2 = np.array([4,5,6])

cb_dist = np.max(np.abs(vector1-vector2))
print("切比雪夫距离为", cb_dist)

前往我们的在线编程环境运行代码:blog.showmeai.tech/python3-com…

5)余弦相似度(Cosine Similarity)

余弦相似度的取值范围为[-1,1],可以用来衡量两个向量方向的差异:

  • 夹角余弦越大,表示两个向量的夹角越小;
  • 当两个向量的方向重合时,夹角余弦取最大值1;
  • 当两个向量的方向完全相反时,夹角余弦取最小值-1。

图解AI数学基础 | 线性代数与矩阵论,图解AI数学基础:从入门到精通系列教程,线性代数,人工智能,矩阵

机器学习中用这一概念来衡量样本向量之间的差异,其数学表达式如下:

cosθ=AB∣A∣∣B∣=∑k=1nx1kx2k∑k=1nx1k2∑k=1nx2k2cos\theta =\frac{AB}{| A | |B | } =\frac{\sum_{k=1}^{n}{x_{1k}x_{2k} } }{\sqrt{\sum_{k=1}{n}{x_{1k}{2} } } \sqrt{\sum_{k=1}{n}{x_{2k}{2} } } }cosθ=∣A∣∣B∣AB=∑k=1nx1k2∑k=1nx2k2∑k=1nx1kx2k

夹角余弦的Python实现

python复制代码import numpy as np
vector1 = np.array([1,2,3])
vector2 = np.array([4,5,6])

cos_sim = np.dot(vector1, vector2)/(np.linalg.norm(vector1)*np.linalg.norm(vector2))
print("余弦相似度为", cos_sim)

前往我们的在线编程环境运行代码:blog.showmeai.tech/python3-com…

6)汉明距离(Hamming Distance)

图解AI数学基础 | 线性代数与矩阵论,图解AI数学基础:从入门到精通系列教程,线性代数,人工智能,矩阵

汉明距离定义的是两个字符串中不相同位数的数目。例如,字符串‘1111’与‘1001’之间的汉明距离为2。信息编码中一般应使得编码间的汉明距离尽可能的小。

d12=∑k=1n(x1k⊕x2k)d_{12} = \sum_{k=1}^{n} \left ( x_{1k} \oplus x_{2k}\right )d12=∑k=1n(x1k⊕x2k)

汉明距离的Python实现

python复制代码import numpy as np
a=np.array([1, 1, 1, 1, 1, 1, 0, 1, 1, 0, 1, 1, 1, 0, 0, 0, 0, 1, 1, 1, 0])
b=np.array([1, 1, 1, 1, 0, 1, 1, 0, 1, 0, 1, 0, 1, 0, 1, 0, 0, 1, 1, 0, 1])
hanm_dis = np.count_nonzero(a!=b)
print("汉明距离为", hanm_dis)

前往我们的在线编程环境运行代码:blog.showmeai.tech/python3-com…

7)杰卡德系数(Jaccard Index)

图解AI数学基础 | 线性代数与矩阵论,图解AI数学基础:从入门到精通系列教程,线性代数,人工智能,矩阵

两个集合AAA和BBB的交集元素在AAA和BBB的并集中所占的比例称为两个集合的杰卡德系数,用符号J(A,B)J(A,B)J(A,B)表示,数学表达式为:

J(A,B)=∣A∩B∣∣A∪B∣J( A,B ) =\frac{| A\cap B| }{|A\cup B | }J(A,B)=∣A∪B∣∣A∩B∣

杰卡德相似系数是衡量两个集合的相似度的一种指标。一般可以将其用在衡量样本的相似度上。

前往我们的在线编程环境运行代码:blog.showmeai.tech/python3-com…

8)杰卡德距离(Jaccard Distance)

图解AI数学基础 | 线性代数与矩阵论,图解AI数学基础:从入门到精通系列教程,线性代数,人工智能,矩阵

与杰卡德系数相反的概念是杰卡德距离,其定义式为:

Jσ=1−J(A,B)=∣A∪B∣−∣A∩B∣∣A∪B∣J_{\sigma} =1-J( A,B ) =\frac{| A\cup B | -| A\cap B | }{| A\cup B | }Jσ=1−J(A,B)=∣A∪B∣∣A∪B∣−∣A∩B∣

杰卡德距离的Python实现

python复制代码import numpy as np
vec1 = np.random.random(10)>0.5
vec2 = np.random.random(10)>0.5

vec1 = np.asarray(vec1, np.int32)
vec2 = np.asarray(vec2, np.int32)

up=np.double(np.bitwise_and((vec1 != vec2),np.bitwise_or(vec1 != 0, vec2 != 0)).sum())
down=np.double(np.bitwise_or(vec1 != 0, vec2 != 0).sum())
jaccard_dis =1-(up/down)
print("杰卡德距离为", jaccard_dis)

前往我们的在线编程环境运行代码:blog.showmeai.tech/python3-com…文章来源地址https://www.toymoban.com/news/detail-846117.html

ShowMeAI相关文章推荐

  • 图解线性代数与矩阵论
  • 图解信息论
  • 图解微积分与最优化

ShowMeAI系列教程推荐

  • 图解Python编程:从入门到精通系列教程
  • 图解数据分析:从入门到精通系列教程
  • 图解AI数学基础:从入门到精通系列教程
  • 图解大数据技术:从入门到精通系列教程

到了这里,关于图解AI数学基础 | 线性代数与矩阵论的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 深度学习的数学基础:从线性代数到随机过程

    深度学习是人工智能领域的一个重要分支,它主要通过模拟人类大脑中的神经网络来进行数据处理和学习。深度学习的核心技术是神经网络,神经网络由多个节点组成,这些节点之间有权重和偏置的连接。通过对这些节点进行训练,我们可以使神经网络具有学习和推理的能力

    2024年03月18日
    浏览(79)
  • 自动编码器的数学基础:概率论与线性代数

    自动编码器(Autoencoders)是一种深度学习模型,它通过学习压缩输入数据的低维表示,然后再将其重新解码为原始数据形式。自动编码器的主要目的是学习数据的特征表示,从而可以用于降维、生成新数据、数据压缩等应用。在这篇文章中,我们将讨论自动编码器的数学基础,

    2024年02月20日
    浏览(39)
  • 人工智能中数学基础:线性代数,解析几何和微积分

    在人工智能领域,线性代数、解析几何和微积分是最基础的数学知识。这些数学知识不仅在人工智能领域中被广泛应用,也是其他领域的重要基础。本文将介绍人工智能中的线性代数、解析几何和微积分的基础知识和应用。

    2024年02月16日
    浏览(36)
  • 计算机科学cs/电子信息ei面试准备——数学基础/线性代数复习

    目录 1. 中值定理 2. 梯度和散度 方向导数和梯度 通量与散度 3. 泰勒公式是为了解决什么问题的? 4. 矩阵的秩是什么,矩阵的秩物理意义? 矩阵的秩 矩阵秩的物理意义 5. 特征值和特征向量的概念 5.1 传统方法 例题 5.2 雅可比迭代法 6. 什么是线性相关以及线性相关的性质?

    2024年02月16日
    浏览(34)
  • 线性代数基础概念和在AI中的应用

    线性代数是数学的一个分支,专注于向量、向量空间(也称为线性空间)、线性变换和矩阵的研究。这些概念在数据科学、人工智能、工程学和物理学等多个领域都有广泛应用。以下是这些基本概念的详细解释和它们在数据处理和AI中的应用。 向量 基本概念 :向量是具有大

    2024年04月26日
    浏览(29)
  • 高等数学:线性代数-第一章

    全排列 把 n 个不同的元素排成一列,叫做这 n 个元素的全排列,简称排列。 例如, { 5 , 3 , 4 , 2 , 1 } { 5, 3, 4, 2, 1 } { 5 , 3 , 4 , 2 , 1 } 是一个排列。 全排列的个数 记 P n P_{n} P n ​ 为 n 个元素的全排列的个数,则有 P n = n ! P_{n} = n! \\\\ P n ​ = n ! 排列数 记 P n m P_{n}^{m} P n m ​ 为从

    2024年02月11日
    浏览(32)
  • 高等数学:线性代数-第三章

    矩阵的初等变换 下面三种变换称为矩阵的初等变换 对换两行(列),记作 r i ↔ r j ( c i ↔ c j ) r_{i} leftrightarrow r_{j} (c_{i} leftrightarrow c_{j}) r i ​ ↔ r j ​ ( c i ​ ↔ c j ​ ) 以数 k ≠ 0 k ne 0 k  = 0 乘某一行(列)中的所有元,记作 r i × k ( c i × k ) r_{i} times k ( c_{i}

    2024年02月11日
    浏览(34)
  • 高等数学:线性代数-第二章

    n bm{n} n 元线性方程组 设有 n 个未知数 m 个方程的线性方程组 { a 11 x 1 + a 12 x 2 + ⋯ + a 1 n x n = b 1 a 21 x 1 + a 22 x 2 + ⋯ + a 2 n x n = b 2 ⋯ ⋯ ⋯ ⋯ a m 1 x 1 + a m 2 x 2 + ⋯ + a m n x n = b m begin{cases} a_{11}x_{1} + a_{12}x_{2} + cdots + a_{1n}x_{n} = b_{1} \\\\ a_{21}x_{1} + a_{22}x_{2} + cdots + a_{2n}x_{n} = b

    2024年02月11日
    浏览(28)
  • 【考研数学二】线性代数重点笔记

    目录 第一章 行列式 1.1 行列式的几何意义 1.2 什么是线性相关,线性无关 1.3 行列式几何意义 1.4 行列式求和 1.5 行列式其他性质 1.6 余子式 1.7 对角线行列式 1.8 分块行列式 1.9 范德蒙德行列式 1.10 爪形行列式的计算 第二章 矩阵 2.1 初识矩阵 2.1.1 矩阵的概念 1.1.2 矩阵的运算规

    2024年04月10日
    浏览(34)
  • 数学与计算机(2)- 线性代数

    原文:https://blog.iyatt.com/?p=13044 NumPy 中 array 和 matrix 都可以用于储存矩阵,后者是前者的子类,array 可以表示任意维度,matrix 只能是二维,相当于矩阵专用,在一些矩阵的运算操作上较为直观。 1.1.1 自定义矩阵 NumPy 通过元组货列表创建的矩阵类型都相同 1.1.2 随机元素矩阵

    2024年03月23日
    浏览(35)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包