共 25 篇文章 |
|
矩阵与矩阵乘积简介。矩阵乘积。矩阵的等价运算称为矩阵乘积或矩阵乘法,它接受两个矩阵并返回另一个矩阵。矩阵乘积的更简单的情况是介于矩阵和向量之间(可以将其视为矩阵乘积,其中一个向量只有一列)。上图说明了矩阵和向量之间乘积的步骤。矩阵乘积类似于矩阵向量积,但应用于第二个矩阵的每一列。你会得到一个协方差矩阵,与函数np.cov中... 阅14 转0 评0 公众公开 23-05-07 21:59 |
线性代数精华——矩阵的特征值与特征向量。如果能够找到的话,我们就称lambda是矩阵A的特征值,非零向量x是矩阵A的特征向量。我们令这个长度发生的变化当做是系数lambda,那么对于这样的向量就称为是矩阵A的特征向量,lambda就是这个特征向量对应的特征值。可以得到:使用Python求解特征值和特征向量。关于矩阵的特征值和特征向量的介绍到这里... 阅323 转0 评0 公众公开 23-05-07 21:32 |
2),卷积核,卷积层主要是提取特征的关键,因为它是你需要的特征的过滤器;上图中,老鼠尾巴,就是我们要提取的特征,那么我们的卷积核应该设为:我们将卷积核作用于图片,直接进行卷积运算,我们发现对于识别的特征计算出来的值非常大;综上所述,我们提取图片特征的关键是设计合理的卷积核,做完卷积后,我们再经过池化,就可以得到相应的值... 阅280 转0 评0 公众公开 23-01-24 15:02 |
其本质,表示如下一个操作1: 通常情况下, f ( τ ) f(\tau) f(τ) 表示被积函数,而 g ( x ?τ ) g(x-\tau) g(x?τ) 表示卷积核函数。这里多说一句,之所以不使用 f ( x ) f(x) f(x) 表示原函数而用 f ( τ ) f(\tau) f(τ) ,而且强调 f ( τ ) f(\tau) f(τ) 是被积函数,是因为 f ( x ) f(x) f(x) 与 f ( τ ) f(\tau) f(τ) 之间... 阅83 转0 评0 公众公开 23-01-24 14:54 |
GPU架构: 不同款的GPU可能采用不同设计架构,比如GeForce 10系列的GTX 1080/1080Ti采用的是Pascal架构,而GeForce 20系列的RTX 2080/2080Ti采用的是Turing架构。显存位宽: 代表GPU芯片每个时钟周期内能从GPU显存中读取的数据大小,这个值越大代表GPU芯片和显存之间数据交换的速度越快,性能越好。功耗: GPU能耗,像Geforce这种消费级的显卡... 阅834 转2 评0 公众公开 22-05-27 06:43 |
【数学基础】矩阵的特征向量、特征值及其含义。从特征向量和特征值的定义中还可以看出,特征向量所在直线上的向量都是特征向量。接下来进入重点,讲一下特征值与特征向量到底发挥了怎样的作用,以及为什么会将这样的向量定义为矩阵的特征向量。上面求解矩阵特征值与特征向量的方法是常规的方法,不过在非常大时,直接求解特征值及其对应的特征... 阅916 转2 评0 公众公开 22-04-29 07:19 |
讲道理 | 特征值和特征向量意义。引用《线性代数的几何意义》的描述:“矩阵乘法对应了一个变换,是把任意一个向量变成另一个方向或长度都大多不同的新向量。在这个变换的过程中,原向量主要发生旋转、伸缩的变化。如果矩阵对某一个向量或某些向量只发生伸缩变换,不对这些向量产生旋转的效果,那么这些向量就称为这个矩阵的特征向量,伸缩的比... 阅53 转0 评0 公众公开 22-04-27 13:01 |
2),卷积核,卷积层主要是提取特征的关键,因为它是你需要的特征的过滤器;上图中,老鼠尾巴,就是我们要提取的特征,那么我们的卷积核应该设为:我们将卷积核作用于图片,直接进行卷积运算,我们发现对于识别的特征计算出来的值非常大;综上所述,我们提取图片特征的关键是设计合理的卷积核,做完卷积后,我们再经过池化,就可以得到相应的值... 阅279 转0 评0 公众公开 22-04-27 06:37 |
以离散信号为例,连续信号同理。从这里,可以看到卷积的重要的物理意义是:一个函数(如:单位响应)在另一个函数(如:输入信号)上的加权叠加。再拓展点,某时刻的系统响应往往不一定是由当前时刻和前一时刻这两个响应决定的,也可能是再加上前前时刻,前前前时刻,前前前前时刻,等等,那么怎么约束这个范围呢,就是通过对 h ( n ) h(n) h(n... 阅11 转0 评0 公众公开 22-04-25 15:33 |