计算机视觉(北邮鲁鹏)学习记录

这篇具有很好参考价值的文章主要介绍了计算机视觉(北邮鲁鹏)学习记录。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

基本题型:
题型:选择、填空、简答、分析
绝大多数内容参考自PPT

一、线性分类器

  • 基本了解内容:每个过程都有些啥
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

  • 图像表示:二进制图像、灰度图像、彩色图像。(将矩阵转为列向量)3072维

  • 分类模型

    • 线性分类模型。是神经网络和支持向量机的基础。。

    • 线性分类模型是一种线性映射,将输入的图像特征映射成类别分数。

    • 决策规则:f_i(x)>f_j(x),对任意的j!=i。

    • 线性分类器的矩阵表示:计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

    • 线性分类器的权值:可以看成模板、输入图像与评估模板的匹配程度越高,分类器输出的分数就越高。

    • 线性分类器的决策边界:W控制着线的方向,b控制线的偏移,箭头方向表示分类器的正方向。沿着箭头方向距离决策面越远分 数就越高

  • 损失函数:是一个函数,用于度量给定的分类器的预测值和真实值的不一致程度,其输出通常是一个非负值。其输出的非负值可以作为反馈信号来对分类器参数进行调整,以降低当前示例对应的损失值,提升分类器的分类效果。

    • 损失函数的一般定义:
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

    • 多类支撑向量机损失:计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

    • 正则项与超参数:R(w)是一个与权值有关,跟图像数据无关的函数。

  • 优化算法:参数优化是机器学习的核心步骤之一,它利用损失函数的输出值作为反馈信号来调整分类器参数,以提升 分类器对训练样本的预测性能。

    • 基本优化目标:计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

    • 优化方法:梯度下降算法、随机梯度下降算法及小批量梯度下降算法。

    • 梯度下降算法:往负梯度方向走,走多远由步长决定。

    • 梯度计算方法:

      • 数值法:计算量大,不精确。
      • 解析法:精确,速度快,导数函数推导易错。
      • 数值梯度作用:求梯度时一般使用解析梯度,而数值梯度主要用于解析梯度的正确性 校验(梯度检查)。
    • 梯度下降算法计算效率:利用所有样本计算损失并更新梯度,当N很大时,权值梯度计算量很大。

    • 随机梯度下降算法:每次随机选择一个样本计算损失更新梯度,单个样本的训练可能会带来很多噪声,不是每次迭代都向着整体最优化方向。。

    • 小批量随机梯度下降:计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

    • 三种方法伪代码:
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

  • 训练过程

    • 数据划分:

      • 训练集:寻找最优分类器。
      • 测试集:评测泛化能力。
      • 验证集:选择超参数。
    • K折交叉验证:
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

    • 数据预处理:

      • 1.去均值,归一化。
      • 去相关(协方差矩阵是对角矩阵),白化(协方差矩阵是单位矩阵)

二、全连接神经网络

  • 了解每个过程有啥:计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

  • 图像表示:展成列向量

  • 分类模型

    • 全连接神经网络:全连接神经网络级联多个变换来实现输入到输出的映射。非线性操作是不可以去掉。去掉后相当于还是线性分类模型。

    • 全连接神经网络的权值:计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

    • 激活函数:

      • 为什么需要非线性操作?答:如果网络中缺少了激活函数,全连接神经网络将变成一个线性分类器。
      • 常见激活函数:计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
        计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
  • 损失函数
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

    • Softmax函数(激活函数):Softmax函数和交叉熵经常一起使用,它是一个具有任意实数值的K维向量压缩到范围在0~1之间的K维向量,使得向量中的每个元素表示对应的类别的概率。

    • 交叉熵损失:衡量两个分布之间的差异性的损失函数。常用于分类问题。

    • 计算图:
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

    • 再看激活函数:
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

      • Sigmoid激活函数:

      • Tanh激活函数:
        计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

      • TeLU激活函数:
        计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

      • Leakly ReLU激活函数:
        计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

      • 梯度爆炸:
        计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

      • 激活函数选择:
        计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

    • 梯度算法的改进:

      • 梯度算法存在的问题:
        计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

      • 动量法:
        计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
        计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

      • 自适应梯度法:计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
        计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

      • Adam优化器:计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

  • 训练过程:

    • 权值初始化:

      • 全零初始化:计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

      • 随机初始化:计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

      • Xavier初始化:(每层神经元激活值的方差基本相同!)不太适合ReLU激活函数
        计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

      • He初始化:
        计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

    • 批归一化:直接对神经元的输出进行批归一化,如果每一层的每个神经元进行批归一化,就能解决前向传 递过程中的信号消失问题。经常插入到全连接层后,非线性激活前。

      • 算法伪代码:
        计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
    • 过拟合现象:

      • 出现过拟合,得到的模型在训练集上的准确率很高,但 在真实的场景中识别率确很低。
        计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
        计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
        计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
        计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
    • 神经网络中的超参数:
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

三、卷积与图像去噪

  • 卷积:可以实现:图像的平移、平滑、锐化
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

  • 平均卷积核与高斯卷积核:
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

  • 图像噪声与中值滤波器:

    • 噪声:
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

    • 中值滤波器:
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

    • 去噪:

计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

  • 边缘提取:
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

    • 奇葩噪声:可以先平滑后再高斯一阶偏导。
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

    • 高斯偏导一阶卷积核方差变化:
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

    • Canny边缘检测器:
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

      • 非极大值抑制:
        计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

      • Canny边缘检测器:
        计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

  • 卷积神经网络:

    • 基于卷积核组的图像表示:
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

    • 卷积网络中的卷积操作:特征响应图深度等于卷积核个数。
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

  • 池化操作:(没有参数)
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

  • 图像增强方法:图像翻转、随机缩放、色彩抖动、平移、旋转、拉伸。

四、经典网络解析

4.1 AlexNet

  • Alexnet主体贡献:

    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

  • Alexnet网络结构:
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

    • MaxPOOL作用:降低特征图尺寸,对抗轻微的目标偏移带来的影响。步长为2作用:重叠有助于对抗过拟合

    • 局部响应归一化层作用(NORM):
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

    • FC6之前会进行拉平操作:变成9216*1的列向量。
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

    • Alexnet运用的重要技巧:
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

4.2 ZFnet

  • Alexnet到ZFnet的改进:
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

4.3 VGG

  • VGG网络基本结构:
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

  • 问题一:VGG用了多个小卷积核作用:
    答:1.多个小尺寸卷积核串联可以得到与大尺寸卷积核相同的感受野;2.使用小卷积核串联构建的网络深度更深、非线性更强、参数也更少。
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

  • 问题二:为什么VGG网络前四段里,每经过一次池化操作,卷积核个数就增加一倍?
    答:1.池化操作可以减小特征图尺寸,降低显存占用。2.增加卷积核个数有助于学习更多的结构特征,但会增加网络参数数量以及内存消耗。3.一减一增的设计平衡了识别精度与存储、计算开销。4.最终提升了网络性能!
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

  • 问题3:为什么卷积核个数增加到512后就不再增加了?
    答:1.第一个全连接层含102M参数,占总参数个数的74%;2. 这一层的参数个数是特征图的尺寸与个数的乘积; 3. 参数过多容易过拟合,且不易被训练。
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

4.4 GoogLeNet

  • Googlenet网络结构:(网络的输入做了去均值处理,RGB三通道)
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

  • 串联结构(如VGG)存在的问题:后面的卷积层只能处理 前层输出的特征图;前层因某些原因(比如感受野限制) 丢失重要信息,后层无法找回。

  • Inception模块:
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

  • 网络的后面几层:
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

  • Googlenet的辅助分类输出层
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

  • 平均池化向量化与直接展开向量化有什么区别?
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

  • Googlenet的1*1卷积会损失信息吗?(通常不会)
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

4.5 Resnet

  • 一个思考:
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

  • 残差模块:
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

  • 其他关键点:
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

  • 问题:为什么残差网络性能这么好?
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

  • 总结:
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

五、图像分割&目标检测

  • 视觉识别基本任务:

    • 分类:目标:将图像分为不同的类别或标签。这涉及将图像映射到预定义的类别,例如识别图像中的动物种类或区分数字手写体的数字。
    • 语义分割:目标:对图像中的每个像素进行分类,将其标记为属于特定类别。这意味着将图像分成多个区域,并为每个像素分配一个语义标签,从而理解图像中不同部分的内容。
    • 实例分割:目标:与语义分割类似,但更进一步,它不仅对图像进行像素级别的分类,而且还能够区分同一类别中不同物体的个体实例。这意味着能够在图像中准确地识别并分割出不同的物体实例。
    • 目标检测:目标:检测图像中存在的物体,并确定它们的位置和类别。通常采用边界框来框出每个物体,同时标识其所属的类别。
  • 语义分割任务

    • 基本思路:滑动窗口
    • 存在的问题:效率太低!重叠区域的特 征反复被计算。
    • 解决方法:全卷积,让整个网络只包含卷积层,一次性输出所有像素的类别预测。
    • 全卷积引起的新问题:处理过程一直保持原始分辨率,对显存的需求比较高。
    • 解决方法:让整个网络只包含卷积层,并在网络中嵌入下采样与上采样的过程。
    • 思考:下采用可以直接进行卷积或池化就可以,如何进行上采样?
      • 方法1:反池化

      • 反池化操作:近邻法、0填充、原始位置映射。
        计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

      • 方法2:反卷积(转置卷积)

      • 例子:
        计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

  • 目标检测

    • 单目标检测:多任务损失两个损失(分类:交叉熵损失、回归:均方误差MSE)

    • 框架图:
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

    • 多目标检测:难点:多少个目标,要画多少个框?

    • 困境:CNN需要对图像中所有可能的区域(不同 位置、尺寸、长宽比)进行分类,计算量巨大。

    • 生成区域狂方法:区域建议(Selective Search):可以快速生成2000个候选区
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

    • 方法1:R-CNN

      • 第一步:利用区域建议方法生成2000个感兴趣的区域

      • 第二步:对区域进行缩放(224*224)

      • 第三步:将图像区域送入卷积神经网络进行特征提取

      • 第四步:使用支持向量机对区域进行分类
        计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

      • 存在的问题:计算效率低,每一张图大于2000个区域需要卷积神经网络进行特征提取,重复区域反复计算。

    • 方法2:Fast R-CNN

      • 第一步:利用卷积神经网络对全图提取特征。(可以使用:Alexnet、VGG、Resnet等等)

      • 第二步:利用区域建议方法产生2000个候选区域框。

      • 第三步:对前面产生的区域框进行裁剪核特征缩放。

      • 第四步:新特征图放入全连接层进行分类和回归。
        计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

      • 需要注意的点:

        • 候选区域是在原始图像上生成的。
        • 候选区域投影到特征图上不一定落到网格交点需要进行裁剪Pol Pool.
      • 区域裁剪:Rol Pool

        • 第一步:投影:将候选区域投影到特征图上。

        • 第二步:规整:将区域顶点规整到网格交点上。

        • 第三步:分割:将候选区域划分为固定大小的子区域。

        • 第四步:池化:对每个子区域进行池化操作(最大池化)

        • 第五步:尺寸统一:将所有子区域提取的特征进行尺寸统一。
          计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

        • 存在的问题:处理后的区域特征会有轻微的对不齐!也就是还是存在一定的精度偏差。

      • 区域裁剪:Rol Align(前面方法的改进版):是一种改进的区域裁剪方法,旨在解决 RoI Pooling 存在的精度损失问题。在目标检测和区域分类任务中,RoI Pooling 的精度损失主要源于两个方面:像素级别的空间错位和信息损失。(不进行规则操作)

        • 改进点1:更精修的插值:RoI Align 使用双线性插值(bilinear interpolation)或类似的更精细插值方法来从特征图上的位置更准确地采样特征。这有助于减少像素级别的错位,提高区域的准确性。
        • 改进点2:子像素对齐:RoI Align 在计算每个输出位置的特征时,更精确地将输入 RoI 映射到特征图上的子像素级别,而不是使用简单的取整操作。这提供了更精确的位置对齐,减少了信息损失。
      • Fast R-CNN存在的问题:候选区域产生过程耗时过高,几乎等于单张图片的检测时间。

    • 方法3:Faster R-CNN:

      • 基本框架图:
        计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

      • 第一步:特征提取:输入图像经过卷积神经网络进行特征提取。(可以使用VGG,Resnet等等)

      • 第二步:候选区域的生成:使用区域建议(Region Proposal Network)在特征图上生成候选区域。PRN利用特征图上的滑动窗口和锚框提出可能包含目标的候选区域。

      • 第三步:区域裁剪与特征对齐:对每个候选框,使用Rol Align或Rol Pooling从特征图上提取固定大小的特征。

      • 第四步:分类和回归:对提取的特征进行分类和边界框回归。

      • 区域建议(Region Proposal Network)是用于目标检测的神经网络组件,通常与 Faster R-CNN 结构一起使用。它的主要功能是在输入图像的特征图上生成可能包含目标的候选区域。基本框架:
        计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

        • 基本原理步骤如下:
          • 滑动窗口与锚框:RPN在最后的feature map上每个位置生成多个候选区域。如上图即15*20=300区域,每个区域生成k个锚框(anchor boxes)一共300k个。
          • 特征提取:RPN使用卷积神经网络(通常是与整个目标检测网络共享的卷积部分)从输入图像中提取特征。
          • 分类和回归:对于每个窗口位置上的每个锚框,RPN同时进行二分类(目标/非目标)和边界框回归(用于调整锚框以更好地匹配目标边界)
          • 生成最终候选区域:根据网络输出的分类分数和边界框回归的效果,通过非极大值抑制等方法筛选和合并候选区域,按得分高低进行综合排序,选取前300个最终候选区域。
      • Faster R-CNN最终框架:
        计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

      • 两阶段图示:
        计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

      • 新问题:是否必须采用两个阶段范式完成目标检测?

    • 方法4:一阶段目标检测:YOLO/SSD/RetinaNet:

      • 经验性结论:Faster R-CNN速度偏慢,精度高;SSD速度快,但精度有所欠缺。主干网络越宽、深度越深,对性能的帮助就越大。
      • 基础框架:两阶段:Faster R-CNN;一阶段:YOLO/SSD;混合:R-CNN
  • 实例分割:

    • 经典网络:Mask R-CNN:
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

    • Faster R-CNN的终极形态:Mask R-CNN (应该不考这个)

      • 改进:在Faster R-CNN的基础上加了一个用于实例分割的新分支。就是上图中的mask network掩码网络。
    • 基本步骤:

      • 第一步:生成建议区域:像 Faster R-CNN 一样,使用区域提议网络(RPN)生成候选目标区域。然后,这些建议区域被送入卷积网络。
      • 第二步:RolAlign:引入 RoIAlign 操作来对特征图进行精准的裁剪和对齐,保留每个区域内部的空间信息。
      • 第三步:Mask Head(掩码头部):RoIAlign 的输出被送入掩码头部,产生与提议区域大小相匹配的像素级别的二值掩码,这些掩码指示了目标的精确边界。
      • 第四步:生成掩码:掩码头部的输出是一个分割掩码图,它与提议区域的大小相匹配。这些掩码通常是二进制的,每个像素点表示是否属于对象的一部分。在一些模型中,也可以输出多类别的分割掩码,每个类别一个掩码。

六、生成模型

  • 有监督模型与无监督模型对比:

    • 有监督模型:
      • 训练数据有标签,目标:学习X->Y
      • 例子:分类、回归、目标检测、语义分割、实例分割等等。算法:SVM,K近邻,决策树等
    • 无监督模型:
      • 数据没有标签(数据获取成本低),目标:找出隐含在数据里的模式或结构。
      • 例子:聚类,降维、特征学习、密度估计等,算法k-means,PCA等
  • 生成模型:给定训练集,产生与训练集同分布的新样本。
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

  • 三种典型的生成模型:

    • PixelRNN and PixelCNN 像素级循环神经网络、像素级卷积神经网络
    • Variational Autoencoders(VAE) 变分自编码器
    • Generative Adversarial Networks(GAN) 生成对抗网络
  • PixelRNN与PixelCNN

    • 基本思路:
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

    • PixelRNN:
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

    • PixelCNN:
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

    • 优缺点:

      • 优点:似然函数可以精确计算,利用似然函数的值可以有效地评估模型的性能。
      • 缺点:序列产生非常慢
  • Variational Autoencoders(VAE)变分自编码器

    • 自编码器:无监督的特征学习,其目标是利用无标签数据找到一个有效地低维的特征提取器。
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

      • 自编码器的学习:自编码器利用重构损失来训练低维的特征表示。
      • 编码器部分:可以使用一般的卷积神经网络(VGG、Resnet)特征降维的过程。
      • 解码器部分:
        • 早期方法:(Linear + 非线性激活函数)通常由全连接层构成,每个全连接层后接非线性激活函数(如 sigmoid、tanh 等)
        • 卷积神经网络流行之前:可能采用多层全连接神经网络,也称为深度全连接网络。
        • 卷积神经网络流行后:使用卷积层和激活函数(如 ReLU)的卷积神经网络结构。
        • 更高级的结构和技术:转置卷积、自注意力机制、跳跃连接等等。
      • 训练好后:移除解码器,已训练完毕的编码器可以作为有监督学习的初始特征特征提取模型。然后利用少量有标签数据,在编码器上训练根据误差损失值对编码器的参数进行微调,训练最终网络。
      • 缺陷:传统自编码器学习到的潜在表示空间通常是离散和无结构的,假设给两张图片,分别是全月和残月。自编码器无法啊生成中间的半圆月。
    • VAE变分自编码器:

      • 相较于自编码器的改进:VAE引入了潜在的空间连续性,这使得其在潜在空间中进行插值和采样变得可能,允许通过线性或非线性插值在空间中生成新的,具有连续变化的样本。即前面说的半圆月。

      • 基本框架图:
        计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

      • 基本原理

        • 基本结构和自编码器类似。编码器将输入数据映射到潜在空间中的潜在变量(latent variable)或潜在表示。解码器则将潜在变量映射回原始数据空间,重构输入数据。
        • 引入了潜在空间的分布假设:VAE假设潜在变量服从某种先验分布(通常是高斯分布),例如均值为0,方差为1的标准正态分布。编码器不直接输出潜在变量的值,而是输出这些分布的参数。通常是输出潜在变量的均值和方差(或者对数方差)。
        • 损失函数和潜在变量采样:VAE的训练过程涉及,即最大化数据的对数似然,同时最小化潜在变量的 KL 散度(Kullback-Leibler divergence)。KL 散度衡量了编码器输出的潜在分布与先验分布之间的差异,帮助模型学习合理的潜在表示。在训练中,通过对编码器输出的分布进行采样(通常是从正态分布中采样),得到潜在变量的实际值,然后将这些值输入到解码器进行数据的重构。
        • 潜在空间的连续性和采样性质:由于VAE中的潜在变量是从分布中采样得到的,因此潜在空间具有连续性和采样性质,使得在潜在空间中进行插值和采样能够生成新的样本。
      • 问题:如果只有重构误差会如何?答:如果只考虑自编码器的重构误差而不考虑潜在空间的连续性和分布性质,会导致模型可能仅仅学习到对训练数据进行简单的复制,而没有学习到有意义的潜在表示。

      • 变分自编码器存在的问题:没有真的在尝试模仿真实的图片,貌似记住的存在的图片。
        计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

      • 变分自编码器(VAE)总结:
        计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

      • 总结一句话:不如GANs

    • Generative Adversarial Networks(GAN)生成对抗网络:

      • 问题:希望从训练样本分布中采样新数据,但这个分布不仅维度高而且还很复杂,难以直接实现。

      • 解决方案: 对一个简单的分布采样,比如均匀分布;然后,学习一种映射将其变换到训练样本分布

      • 用什么方法实现这个复杂的映射:神经网络!

      • 输入:随机噪声;输出:采样自训练样本分布的图片。

      • 基本形式:
        计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

      • 两个玩家的游戏:生成器和对抗器
        计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

      • Minmax训练方式解释:

        • 先训练判别器ʘd,最大化目标函数,使D(x)接近1(真实样本),而D(G(z))接近于0(假2样本)。旨在最大化判别器对真实样本和生成样本的辨别能力

        • 再训练生成器ʘg,最小化目标函数,使得D(G(z))尽量接近1,即希望判别器认为生成器产生的图像G(z)为真实图片。

        • 训练结束:如果生成的图片已经足够逼真和多样可以停止,判别器精度达到某个阈值,损失值收敛等等。

        • Minmax训练方式的弊端:生成样本非常糟糕时,判别器输出值都会很小,生成器损失函数梯度很小,使得生成器学习很慢,相反,当生成样本比较好时,判别器输出值都会比较大,生成器损失函数在此处的梯度很大,生成器更新较大。
          计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

        • 解决方法:将生成器训练目标函数转化为最大化情况,上面的情况就可以对调过来,即:生成样本很糟糕时,生成器损失梯度高,加快生成器学习,当样本比较好时,生成器梯度低,生成器更新较小,逐渐收敛。如下图:
          计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

        • 总结:
          计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

七、Gan网络

  • 卷积生成对抗网络DCGAN:

    • 基本结构:
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
  • GAN优化问题:
    计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

    • 分布不重叠时JS散度固定值log2会导致GAN训练出现下面问题:

      • 训练困难: 当生成器(Generator)产生的分布和真实数据分布没有重叠时,JS散度为常数 log⁡2。这可能会导致梯度消失或梯度爆炸,使得模型难以学习和收敛。
      • 缺乏梯度信号: JS散度的常数值意味着梯度信息受限。在这种情况下,生成器很难根据梯度信号进行调整,导致训练不稳定。
      • 模式崩溃(Mode Collapse): 当生成器无法从梯度中获得有用的信息时,可能导致模式崩溃的情况,即生成器只生成少量或单一类型的样本,而不是多样化的结果。
    • D判别器过于强大:
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

    • JS散度问题解决方法:
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

    • 基于Wasserstein的GAN即使两个分布没有重合(这事经常发生),也能准确的衡量分布的差异。
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能

    • 条件GAN:
      计算机视觉(北邮鲁鹏)学习记录,期末学习分享,计算机视觉,学习,人工智能文章来源地址https://www.toymoban.com/news/detail-768258.html

到了这里,关于计算机视觉(北邮鲁鹏)学习记录的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 计算机视觉与深度学习-全连接神经网络-训练过程-欠拟合、过拟合和Dropout- [北邮鲁鹏]

    机器学习的根本问题是 优化 与 泛化 问题。 优化 :是指调节模型以在训练数据上得到最佳性能。 泛化 :是指训练好的模型在前所未见的数据上的性能好坏。 出现过拟合,得到的模型在训练集上的准确率很高,但是在真实的场景下识别率确很低。 过拟合overfitting:指学习时

    2024年02月07日
    浏览(48)
  • 【北邮鲁鹏老师计算机视觉课程笔记】02 filter

    二进制图像: 灰度图像: 彩色图像: 噪声点让我们看得难受是因为噪声点与周边像素差别很大 滤波核= 卷积核 对应相乘再累加起来 卷积核记录了权值,把权值套到要卷积的目标图上,对应相乘 线性和平移不变形 因为实际使用的时候卷积核是对称的,因此不要求翻转 真实

    2024年02月20日
    浏览(43)
  • 【北邮鲁鹏老师计算机视觉课程笔记】09 Segmentation 分割

    【北邮鲁鹏老师计算机视觉课程笔记】09 Segmentation 分割 找一个合适的分割方法 过分割:分割得太细 自底向上的方法 无监督的 自底向上:基于像素的 自顶向下:从语义的角度 人会感觉下面的线比上面的线长 人的感知:先感知部件,然后理解组合后的整体语义 临近的、颜色

    2024年02月19日
    浏览(46)
  • 【北邮鲁鹏老师计算机视觉课程笔记】08 texture 纹理表示

    【北邮鲁鹏老师计算机视觉课程笔记】08 texture 纹理表示 规则和不规则的 从纹理中恢复形状 通过识别纹理分析物理性质 如何区分纹理 发现模式、描述区域内模式 A对应图2 B对应图3 C对应图1

    2024年02月20日
    浏览(57)
  • 【北邮鲁鹏老师计算机视觉课程笔记】06 corner 局部特征

    【北邮鲁鹏老师计算机视觉课程笔记】06 corner 局部特征 ①提取特征 ②匹配特征 ③拼接图像 我们希望特征有什么特性? ①可重复性 ②显著性 ③计算效率和表达紧凑性 ④局部性 在角点,往任意方向移动窗体都会发生变化 用泰勒展开,建立E(u,v)和(u,v)的直接关系 E(u,v)是移动

    2024年02月20日
    浏览(41)
  • 【北邮鲁鹏老师计算机视觉课程笔记】07 Local feature-Blob detection

    【北邮鲁鹏老师计算机视觉课程笔记】07 Local feature-Blob detection 不管多近多远,多大多小都能检测出来 找到一个函数,实现尺度的选择特性 看哪个信号能产生最大响应 高斯二阶模版检测尺度(用二阶过零点检测边缘) 高斯二阶导有两个参数:方差和窗宽 最后图表示当信号与

    2024年02月20日
    浏览(36)
  • 计算机视觉 期末复习

    目录 一,导论 二,图像采样和频域处理 1.计算机图像 2.常用的亮度等级(灰度值) 3.多通道图像 4.图像插值算法(记住哪些算法) 5.像素空间关系 1像素邻域 2.像素连接 3.像素连通 4.像素距离(三个公式记住) 6.傅里叶级数 7.傅里叶变换 8.离散余弦变换 三,基本图像处理运

    2024年02月08日
    浏览(43)
  • 计算机视觉——期末复习(简答题)

    1、计算机视觉与机器视觉的区别 计算机视觉是利用计算机实现人的视觉功能,即对客观世界中三维场景的感知、加工、解释,侧重于场景分析和图像解释的理论和方法,而机器视觉更关注通过视觉传感器获取环境的图像,构建具有视觉感知功能的系统,以及实现检测和辨识

    2024年02月05日
    浏览(55)
  • 《高级计算机视觉》期末样题汇总

    说明:电子科技大学2022年研究生课程《高级计算机视觉》期末样题。 给出下列数据,写出按照行的方向的游程长度编码。 答: (1,2),(2,4),(3,2) (1,2),(2,4),(3,2) (3,2),(5,6) (3,2),(5,6) (2,4),(7,4) (2,4),(7,4) (2,

    2024年02月04日
    浏览(55)
  • 计算机视觉——期末复习(填空、名词解释)

    图像文件: 指包含图像数据的文件,文件内除图像数据本身以外,还有对图像的描述信息等 距离变换: 特殊的变换,把二值图像变换为灰度图像 距离图: 如果考虑目标区域中的每个点与最接近的区域外的点之间的距离, 并用与距离成正比的灰度表示该点的灰度,那么这样

    2024年02月11日
    浏览(47)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包