计算机视觉——图像视觉显著性检测

这篇具有很好参考价值的文章主要介绍了计算机视觉——图像视觉显著性检测。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

目录

系列文章目录

零、问题描述

一、图像显著性检测

1.定义

2.难点

二、常用评价标准和计算方法

1.综述

2.ROS曲线详述

2.1 混淆矩阵

2.2 ROC曲线简介

2.3 ROC曲线绘制及其判别标准

2.4 ROC曲线补充

三、Fast and Efficient Saliency (FES)

1.算法简介

2.项目导入与解析

3.FES注意预测实践

4.评价结果

四、MSI-Net

1.算法简介

2.项目导入与解析

3.MSI-Net注意预测实践

3.1 环境搭建与配置

3.2 下载或导入数据集

3.3 训练

3.4 测试(注意预测)

4.评价结果

4.1 评价标准代码实现

4.2 MSI-Net评价

五、线上平台与集成软件

1.DeepGaze II

1.1 模型选择

1.2 中心偏置设置

2.AttentionInsight集成软件

六、汇总与对比

七、参考资料


系列文章目录

完整代码:李忆如 - Gitee.com

    本系列博客重点在计算机视觉的概念原理与代码实践,不包含繁琐的数学推导(有问题欢迎在评论区讨论指出,或直接私信联系我)。

第一章 计算机视觉——图像去噪及直方图均衡化(图像增强)_@李忆如的博客​​​​​​

第二章 计算机视觉——车道线(路沿)检测_@李忆如的博客-CSDN博客

第三章 计算机视觉——图像视觉显著性检测 


梗概

    本篇博客主要介绍图像显著性检测(注意预测)定义、原理及其相关流程。探究并实践不同数据集不同平台传统显著性检测算法与深度学习的显著性检测算法,故选择了Matlab下的传统算法Fast and Efficient Saliency (FES)与Python下的深度学习算法MSI-Net进行实验。此外,还在部分开源平台进行了线上注意预测尝试,另外使用了不同的评价标准对效果进行评价与对比(内附数据、python、matlab代码)


零、问题描述

    请选择一种基于图像的注意预测算法,使用该算法进行图像注意区域的预测,并使用注意预测的常用评价标准进行评价。在这里请给出方法简介、原图像、预测结果、评价结果。

参考链接:MIT Saliency Benchmark

          https://saliency.tuebingen.ai

一、图像显著性检测

1.定义

    视觉显著性是指对于真实世界中的场景,人们会自动的识别出感兴趣区域,并对感兴趣的区域进行处理,忽略掉不感兴趣的区域

    图像的注意预测,也称视觉显著性检测。过智能算法拟人的视觉系统特点,预测人类的视觉凝视点和眼动,提取图像中的显著区域(即人类感兴趣的区域),是计算机视觉领域关键的图像分析技术。部分图像及其注意预测结果示例如图1所示:

视觉显著性算法,计算机视觉,python,opencv,人工智能,计算机视觉,matlab

图1 部分图像及其注意预测结果示例

2.难点

    自1980TreismanGelade提出开创性的自底向上的注意力模型以来,涌现出大量的注意预测算法。主要可以分为两个阶段,第一阶段为基于强度、颜色和方向等传统尺度空间手工特征注意预测算法。第二个阶段,随着计算机神经网络技术的革新和发展,基于深度学习注意预测算法大量出现。

    对于传统注意预测算法,由于其特征提取和学习方法都以图像本身空间特征为基础,缺乏多语义等深度特征,相较于人眼仍然具有较大差距,即并很难检测到人眼注视信息包含的大量高级语义信息,在预测效果的提高上有局限。且不同人的注意力机制存在一定差异,在大部分传统模型中未加入先验信息,处理相对困难。

    对于深度学习注意预测算法,卷积神经网络中具有下采样的操作,会逐渐降低特征分辨率,并在此过程中丢失不同尺度包含的特征信息。且深度学习算法在神经网络的设计上针对不同任务需要不断变更,算法较复杂。另外,深度学习模型一般存在可解释性差的共性缺点,且对硬件环境要求较高,效率较低

二、常用评价标准和计算方法

1.综述

    对于注意预测的常用评价标准是多方面的。

    比如在经典的评价标准中,可用KL距离来度量预测与真实分布的距离,接受者操作特性曲线(ROC曲线)来度量真假阳,将归一化后预测人眼扫描路径与真实路径计算相关系数

    在论文实验常用标准MIT/Tuebingen Saliency Benchmark中,使用IG、AUC、sAUC、NSS、CC、KLDiv、SIM指标评价,从不同维度评价,指标高则代表该方面注意预测能力较强,评价标准详见:MIT/Tuebingen Saliency Benchmark。

    在其他方面,可以基于显著点评价,基于区域评价,主观评价等。

2.ROS曲线详述

    本实验以ROS曲线为例,详细介绍一种注意预测的常用评价标准和计算方法。

2.1 混淆矩阵

    对于二分类问题,可将样本根据其真实类别与学习器预测类别的组合划分为TP(true positive)FP(false positive)TN(true negative)FN(false negative)四种情况,TP+FP+TN+FN=样本总数,如图2所示:

视觉显著性算法,计算机视觉,python,opencv,人工智能,计算机视觉,matlab

图2 混淆矩阵样本划分

    其中,有如下三个定义须知,对应的公式如图3所示:

Ⅰ、真正率 TPR:预测为正例且实际为正例的样本占所有正例样本(真实结果为正样本)的比例。

Ⅱ、假正率 FPR:预测为正例但实际为负例的样本占所有负例样本(真实结果为负样本)的比例。

Ⅲ、特异性(真阴性率)TNR:是指实际为阴性的样本中,判断为阴性的比例。

视觉显著性算法,计算机视觉,python,opencv,人工智能,计算机视觉,matlab

图3 混淆矩阵三大相关公式计算

2.2 ROC曲线简介

    ROC曲线对同一信号刺激的反应在几种不同的判定标准下所得的结果,用来度量真阳vs假阳,是一种比较分类模型可视化的工具。其中有如图4其他四种常见评价标准计算方法:

视觉显著性算法,计算机视觉,python,opencv,人工智能,计算机视觉,matlab

图4 四种常见评价标准的计算方法

2.3 ROC曲线绘制及其判别标准

    根据上述说明及混淆矩阵定义可知,ROC曲线的横坐标和纵坐标是没有相关性的,所以不能把ROC曲线当做一个函数曲线来分析,应该把ROC曲线看成无数个点每个点代表一个分类器。横坐标为分类器的FPR,纵坐标为分类器的TPR。引入例子如图5所示:

视觉显著性算法,计算机视觉,python,opencv,人工智能,计算机视觉,matlab

图5 ROC曲线绘制样例

    分析:由图5所示,评价分类器好坏只需对比位置与相关参数。样例中C'的性能最好。而B的准确率只有0.5,几乎是随机分类。其中,图中左上角坐标为(1,0)的点为完美分类点(perfect classification),它代表所有的分类全部正确。

    补充:实际ROC曲线绘制只需对多个分类器绘图即可。

2.4 ROC曲线补充

    ROC分类器具体分类标准如图6所示,优点与作用如表1所示:

视觉显著性算法,计算机视觉,python,opencv,人工智能,计算机视觉,matlab

图6 ROC分类标准

表1 ROC曲线优点与作用

优点

作用

1.简单、直观

1.查出一个分类器在某个阈值时对样本的识别能力

2.对类分布的改变不敏感

2.选择出某一诊断方法最佳的诊断界限值

3.可延申为其他评价标准

3. 比较两种及以上不同诊断方法对疾病的识别能力大小

    补充: AUC(Area Under Curve)也是注意预测常用评价标准,被定义为ROC曲线下与坐标轴围成的面积,显然这个面积的数值不会大于1。又由于ROC曲线一般都处于y=x这条直线的上方,所以AUC的取值范围在0.5和1之间。AUC越接近1.0,检测方法真实性越高;等于0.5时,则真实性最低,无应用价值

三、Fast and Efficient Saliency (FES)

    本部分将使用FES算法进行图像注意区域的预测,相关信息与设置如表2所示:

表2 FES算法相关信息与设置

官方数据集

CAT2000

相关论文

LNCS 6688 - Fast and Efficient Saliency Detection Using Sparse Sampling and Kernel Density Estimation (springer.com)

源码地址

GitHub - hrtavakoli/FES: Code for Fast and efficient saliency detection using sparse sampling and kernel density estimation

语言

Matlab

1.算法简介

    注意预测在计算机视觉中获得了大量的关注。在论文中,作者研究了使用中心-周围方法的注意预测,样例如图7所示。提出的方法是基于在贝叶斯框架下估计局部特征对比的显著性。所需的分布特别是使用稀疏抽样和核密度估计来估计。此外,该方法的性质隐含地考虑了文献中所指的中心偏差

    论文的方法在CAT2000上进行了评估,该数据集包含了人类眼睛的固定位置作为地面实况。结果表明,与最先进的方法相比,有5%以上的改进(2011)。此外,该方法足够快,可以实时运行,论文使用FES进行注意预测前后的图像样例如图8所示:

视觉显著性算法,计算机视觉,python,opencv,人工智能,计算机视觉,matlab

图7 中心-周围方法样例

视觉显著性算法,计算机视觉,python,opencv,人工智能,计算机视觉,matlab

图8 论文使用FES进行注意预测前后的图像

2.项目导入与解析

    进入github下载对应项目,该项目包含的文件和目录如表3所示:

表3 FES项目文件目录

名称

作用

calculateImageSaliency.p

计算单一比例的图像显著性

calculateFinalSaliency.m

计算多个比例的图像显著性

runSaliency.m(主文件)

一个显示如何计算突出性的样本文件

prior.mat

通过学习获得的先验

    将项目导入Matlab中,观察并解析代码,总结算法流程如图9:

视觉显著性算法,计算机视觉,python,opencv,人工智能,计算机视觉,matlab

图9 FES在Matlab中的算法流程

3.FES注意预测实践

    按图9中算法流程,先定义好待实验图像文件夹data与保存文件夹result,之后运行runSaliency.m。实验中原图像与预测图像样例如图10所示:

视觉显著性算法,计算机视觉,python,opencv,人工智能,计算机视觉,matlab

图10 FES注意预测前后图像样例

    分析:在MatlabR2020a下运行FES对10张图片进行注意预测,用时3.122s,符合在Fast and Efficient的特点图10中可见预测效果与原理相符,评价结果在后续详述。

4.评价结果

    为对FES算法的注意预测效果进行合理评价,本实验使用论文实验常用标准MIT/Tuebingen Saliency Benchmark,FES论文在CAT2000数据集下给出的参考指标如表4所示:

表4 FES参考预测效果指标(CAT2000数据集)

AUC

sAuc

NSS

CC

KLDiv

SIM

0.8212

0.5450

1.6103

0.5799

2.6123

0.5255

    由于评价体系官方依赖库为pysaliency python library,寻找matlab相关依赖无果,故采用网络方法单项实现不同指标对FES的评估,参考文档如下:

①AUS:AUC值计算(matlab) - zhouerba - 博客园 (cnblogs.com)

②sAuc:显著性检测(saliency detection)评价指标之sAUC(shuffled AUC)的Matlab代码实现_a18861227的博客-CSDN博客

③NSS:Matlab显著性检测模型性能度量之NSS_Mr.Q的博客-CSDN博客

④CC:Matlab 显著性检测模型性能度量线性相关系数 CC_Mr.Q的博客-CSDN博客_相关系数cc

⑤KLDiv:KLDIV - File Exchange - MATLAB Central (mathworks.com)

⑥SIM:显著性检测SIM算法--Matlab_matlabsim-图像处理代码类资源-CSDN文库

    在将评价标准代码接入matlab中后对于(3)中的样例进行MIT/Tuebingen Saliency Benchmark评价,实验结果与论文结果比较数据如表5所示,效果比较如图11所示:

表5 论文与实验中FES在不同评价标准下的数据汇总

视觉显著性算法,计算机视觉,python,opencv,人工智能,计算机视觉,matlab

视觉显著性算法,计算机视觉,python,opencv,人工智能,计算机视觉,matlab

图11 论文与实验中FES在不同评价标准下的效果对比

    分析:由表5与图11可见,在AUC、sAUC、NSS、KLDiv四个评价标准下,实验数据略低于论文数据,而在其他两个评价标准下,实验数据略高于论文数据,差异的原因与数据集有一定的联系,总体来说拟合效果较好,FES算法符合论文提出的高效、高评价效果(2011)的特点

四、MSI-Net

    本部分将使用MSI-Net算法进行图像注意区域的预测,相关信息与设置如表6所示:

表6 MSI-Net算法相关信息与设置

官方数据集

MIT300

相关论文

main.pdf (sciencedirectassets.com)

源码地址

GitHub - alexanderkroner/saliency: Contextual Encoder-Decoder Network for Visual Saliency Prediction [Neural Networks 2020]

语言(框架)

Pythontensorflow

参考文档

图像中的注意区域预测_Asionm的博客-CSDN博客_salicon数据集

1.算法简介

    注意预测任务需要检测场景中存在的物体。为了开发稳健的表征,必须在多个空间尺度上提取高层次的视觉特征,并辅以背景信息。在论文中,作者提出了一种基于卷积神经网络的方法,该网络在大规模的图像分类任务中进行了预训练。该架构形成了一个编码器-解码器结构,如图12所示。并包括一个具有不同扩张率的多个卷积层的模块,以平行捕捉多尺度特征。此外,我们将得到的表征与全局场景信息相结合,以准确预测视觉显著性。

    论文的模型在两个公共显著性基准的多个评估指标上取得了有竞争力的一致结果,我们在五个数据集和选定的例子上证明了建议的方法的有效性。与最先进的方法(2020)相比,该网络是基于一个轻量级的图像分类骨干,因此为计算资源有限的应用提供了一个合适的选择,如(虚拟)机器人系统,以估计人类在复杂自然场景中的固定。论文使用MSI-Net进行注意预测前后的图像样例如图13所示:

视觉显著性算法,计算机视觉,python,opencv,人工智能,计算机视觉,matlab

图12 编码器-解码器架构的模块图

    补充:如图12所示,VGG16主干被修改以考虑密集预测任务的要求,省略了最后两个最大集合层的特征降采样。然后,多级激活被转发到ASPP模块,该模块在不同的空间尺度上并行地捕获信息。最后,输入的图像尺寸通过解码器网络被恢复。卷积层下面的小写字母表示相应的特征图的数量。

视觉显著性算法,计算机视觉,python,opencv,人工智能,计算机视觉,matlab

图13 论文使用MSI-Net进行注意预测前后的图像

2.项目导入与解析

    进入github下载对应项目,该项目包含的文件及核心作用与环境配置如图14所示,将项目导入Pycharm中,观察并解析代码,总结算法流程如图15:

视觉显著性算法,计算机视觉,python,opencv,人工智能,计算机视觉,matlab

视觉显著性算法,计算机视觉,python,opencv,人工智能,计算机视觉,matlab

图14 MSI-Net项目文件及核心作用与环境配置

视觉显著性算法,计算机视觉,python,opencv,人工智能,计算机视觉,matlab

图15 MSI-Net在Pycharm中的算法流程

3.MSI-Net注意预测实践

3.1 环境搭建与配置

    如图14,安装好对应环境与相关依赖后才可以正常运行项目。在环境搭配于配置过程中遇到了如下几个问题:

Ⅰ、缺少函数问题:在未作版本处理前,本人使用的环境为tensorflow2.10,在运行时会出现缺少函数问题,如图16所示:

视觉显著性算法,计算机视觉,python,opencv,人工智能,计算机视觉,matlab

视觉显著性算法,计算机视觉,python,opencv,人工智能,计算机视觉,matlab

图16 运行中的函数缺少问题

Ⅱ、tensorflow降级问题:为解决问题Ⅰ需做降级。由于本人使用的Python为3.8,不支持MSI-Net项目所需的tensorflow1.x版本,故在搜索资料后使用pip install --upgrade https://storage.googleapis.com/tensorflow/mac/cpu/tensorflow-1.14.0-py3-none-any.whl命令降低版本,如图17所示:

视觉显著性算法,计算机视觉,python,opencv,人工智能,计算机视觉,matlab

图17 tensorflow强制降级

Ⅲ、环境选择问题:在降级后仍然无法成功运行,在查阅github官方文档后发现算法的运行同时提供GPU与CPU的形式运行(其默认为GPU运行),由于本人为tensorflow-cpu,所以需要修改config.py的“device”,如图18所示:

视觉显著性算法,计算机视觉,python,opencv,人工智能,计算机视觉,matlab

图18 切换算法环境方法

3.2 下载或导入数据集

    Github中MSI-Net项目默认是使用SALICON数据集,能够自动抓取的数据集有``salicon, mit1003, cat2000, dutomron, pascals, osie, fiwi`。在运行训练代码时会检测数据集是否存在,若不存在会自动下载(本实验选择手动下载导入)。

3.3 训练

    使用python main.py train命令即可开始训练,默认epoch = 10。

3.4 测试(注意预测)

    使用③中训练好的模型,或者直接使用(论文)官网中作者中给定的参数进行测试,命令为python main.py test -d DATA -p PATH。其中DATA对应的是用于训练时的数据集,若没有事先训练的话,它会直接从网上下载已经训练好的权重进行评估。而PATH对应的是所要测试的图片地址,可以是多张图片也可以是单张图片。最后训练得到的结果会放在 results/images/中。

    实验中原图像与预测图像样例如图19所示:

视觉显著性算法,计算机视觉,python,opencv,人工智能,计算机视觉,matlab

图19 MSI-Net注意预测前后图像样例

    分析:在Pycharm2021下运行MSI-Net对10张图片进行注意预测,用时4.712s(测试时间)。图19中可见预测效果与原理相符,评价结果在后续详述。

4.评价结果

    为对MSI-Net算法的注意预测效果进行合理评价,本实验使用论文实验常用标准MIT/Tuebingen Saliency Benchmark,MSI-Net论文在MIT300数据集下给出的参考指标如表7所示:

表7 MSI-Net参考预测效果指标(MIT300数据集)

IG

AUC

sAuc

NSS

CC

KLDiv

SIM

0.9185

0.8738

0.7787

2.3053

0.7790

0.4232

0.6704

4.1 评价标准代码实现

    评价体系官方依赖库为pysaliency python library,所以Python可以直接使用相关依赖,有如下两种使用途径

Ⅰ、直接利用源代码进行注意预测评价:首先可以直接在github相关源上下载https://github.com/matthias-k/saliency-benchmarking,然后进行评估。

Ⅱ、直接使用pysaliency:利用pip工具进行安装库,根据官方文档与参考文档进行代码编写,如图20所示:

视觉显著性算法,计算机视觉,python,opencv,人工智能,计算机视觉,matlab

图20 使用pysaliency库实现评价标准

4.2 MSI-Net评价

    在将评价标准代码接入Pycharm中后对于(3)中的样例进行MIT/Tuebingen Saliency Benchmark评价,实验结果与论文结果比较数据如表8所示,效果比较如图21所示:

表8 论文与实验中MSI-Net在不同评价标准下的数据汇总

视觉显著性算法,计算机视觉,python,opencv,人工智能,计算机视觉,matlab

视觉显著性算法,计算机视觉,python,opencv,人工智能,计算机视觉,matlab

图21 论文与实验中MSI-Net在不同评价标准下的效果对比

    分析:由表8与图21可见,在IG、AUC、sAUC、NSS、SIM五个评价标准下,实验数据略低于论文数据,而在其他两个评价标准下,实验数据略高于论文数据,差异的原因与数据集有一定的联系,总体来说拟合效果较好,MSI-Net算法符合论文提出的轻量化、高评价效果(2020)的特点

五、线上平台与集成软件

除了上文提到的github项目与代码外,还有一些线上平台与集成软件可以较方便地完成注意预测,本部分将会稍作介绍。

1.DeepGaze II

    DeepGaze为注意预测系列算法,包含DeepGaze I, DeepGaze II, DeepGaze IIE and DeepGaze III四种,在注意预测多种评价标准下至今仍处领先地位,相关信息如表8:

表8 DeepGaze算法相关信息与设置

官方数据集

MIT300CAT2000

相关论文

多篇

源码地址

GitHub - matthias-k/DeepGaze: pytorch implementation of the different DeepGaze models

语言(框架)

Pythonpytorch

    其中,DeepGaze II制作了在线平台供用户进行注意预测,地址如下:Index - DeepGaze II (bethgelab.org),进入平台,点击“submit an image”按钮进入选择图片界面,有以下两种设置,如图22所示:

1.1 模型选择

    DeepGaze II在线平台提供了两种模型,分别是Use the DeepGaze II modelUse the ICF (Intensity Contrast Features) model

1.2 中心偏置设置

    DeepGaze II在线平台提供了两种中心偏置设置,分别是Use no centerbias (i.e. use a uniform distribution as prior)Use the centerbias from the MIT1003 dataset

视觉显著性算法,计算机视觉,python,opencv,人工智能,计算机视觉,matlab

图22 DeepGaze II在线平台图片提交设置

    使用DeepGaze II在线平台进行注意预测,原图像与预测图像样例如图23所示(以DeepGaze II模型、使用MIT1003数据集的中心偏置为例):

视觉显著性算法,计算机视觉,python,opencv,人工智能,计算机视觉,matlab

图23 DeepGaze II注意预测前后图像样例

    补充:DeepGaze II在线平台未给出评价方法,故在此对效果不做评价。

2.AttentionInsight集成软件

    AttentionInsight为注意预测的一种算法,开发了集成软件(demo版),地址如下:Attention Insight Heatmaps | AI-Driven Pre-Launch Analytics,样例注意预测如图24所示:

视觉显著性算法,计算机视觉,python,opencv,人工智能,计算机视觉,matlab

图24 AttentionInsight注意预测前后图像样例

六、汇总与对比

    为探究不同算法注意预测产生的图像区别,分别将上文中算法产生的图像汇总对比,样例如图25所示:

视觉显著性算法,计算机视觉,python,opencv,人工智能,计算机视觉,matlab

图25 不同算法与模型注意预测前后图像样例

    分析:由于不同算法与模型使用的标准不同,设计流程不同,产生结果自然不同。

七、参考资料

1.刘瑞航.视觉显著性预测方法研究.2022.中国矿业大学,MA thesis.

2.孙夏,and 石志儒."视觉显著性预测综述." 电子设计工程 25.09(2017):189-193. doi:10.14022/j.cnki.dzsjgc.2017.09.047.

3.脑与认知实验:图像中的注意区域预测_Asionm的博客-CSDN博客

4.视觉显著性检测_百度百科 (baidu.com) 文章来源地址https://www.toymoban.com/news/detail-779532.html


到了这里,关于计算机视觉——图像视觉显著性检测的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【计算机视觉 | 目标检测 | 图像分割】arxiv 计算机视觉关于目标检测和图像分割的学术速递(7 月 17 日论文合集)

    Tall:用于深度假冒视频检测的缩略图布局 deepfake对社会和网络安全的威胁日益严重,引起了公众的极大关注,人们越来越多地致力于deepfake视频检测这一关键话题。现有的视频方法实现了良好的性能,但计算密集型。本文介绍了一种简单而有效的策略–缩略图布局(TALL),该

    2024年02月16日
    浏览(72)
  • 目标检测 图像处理 计算机视觉 工业视觉

    从事ai视觉算法有几年了,本帖是对以往做过的计算机视觉项目的一些总结,硬件部署的大多是基于nvidia的开发板和GPU服务器上,如jetson nano,还有地平线J3J5和瑞芯微以及星辰的开发板,另外就是对实时性要求不高的部署在cpu上。有相关项目需求可以一起交流和学习。(+v 3

    2024年02月06日
    浏览(57)
  • (计算机视觉课程-笔记1)图像边缘检测

    Sobel算子是一种常用于图像处理和计算机视觉中的边缘检测算法。它用于识别图像中的边缘区域,即图像中灰度值发生剧烈变化的地方。Sobel算子基于图像的灰度梯度,通过计算每个像素点周围像素的灰度值差异,来确定边缘的位置和方向。 Sobel算子主要由两个3x3的矩阵组成,

    2024年02月16日
    浏览(53)
  • 【计算机视觉】【图像处理综合应用】路沿检测

    实验内容: 针对给定的视频,利用图像处理基本方法实现道路路沿的检测; 提示:可利用 Hough 变换进行线检测,融合路沿的结构信息实现路沿边界定位(图中红色的点位置)。 处理视频文件 处理视频文件的主要流程如下: 读取视频 → 逐帧提取 → 路沿检测 → 逐帧保存

    2024年02月05日
    浏览(59)
  • 计算机视觉实验:图像处理综合-路沿检测

    目录 实验步骤与过程 1. 路沿检测方法设计 2. 路沿检测方法实现 2.1 视频图像提取 2.2 图像预处理 2.3 兴趣区域提取 2.4 边缘检测 ​​​​​​​2.5 Hough变换 ​​​​​​​2.6 线条过滤与图像输出 3. 路沿检测结果展示 4. 其他路沿检测方法 实验结论或体会 实验内容: 针对

    2024年02月14日
    浏览(49)
  • 计算机视觉基础(3)——图像滤波与边缘检测

    本文主要聚焦于 图像滤波与边缘检测 两部分。图像滤波部分分析的是 线性移不变系统,将介绍两类滤波器,平滑滤波器和梯度滤波器 。边缘检测部分将介绍 高斯导数滤波器和Canny边缘检测器 。为了更好的阅读体验,读者需要提前了解或掌握卷积、线性移不变系统、梯度、

    2024年02月02日
    浏览(63)
  • 毕业设计-计算机视觉:刨花板表面小目标缺陷检测系统 人工智能 算法 python

      目录  前言 设计思路 一、课题背景与意义 二、算法理论原理 2.1 自适应空间特征融合模块 2.2 Ghost 模块 三、检测的实现 3.1 数据集 3.2 实验环境搭建 3.3 实验及结果分析 实现效果图样例 最后        📅大四是整个大学期间最忙碌的时光,一边要忙着备考或实习为毕业后面临

    2024年01月16日
    浏览(55)
  • 计算机视觉图像检测之从EasyDL到BML

    目录 EasyDL篇 一、数据处理 1.1数据导入 1.2 数据质检 1.3 数据标注 1.4 数据增强 二、模型训练(注意费用问题) 2.1 创建模型 2.2训练模型 三、模型发布 四、鉴权认证 4.1 登录百度智能云平台 4.2 准备工作 4.3 获取鉴权认证 BML篇         BML的使用与EasyDL基本一致,故不给出详

    2024年01月23日
    浏览(39)
  • 【计算机视觉、关键点检测、特征提取和匹配】基于SIFT、PCA-SIFT和GLOH算法在不同图像之间建立特征对应关系,并实现点匹配算法和图像匹配(Matlab代码实现)

    💥💥💞💞 欢迎来到本博客 ❤️❤️💥💥 🏆博主优势: 🌞🌞🌞 博客内容尽量做到思维缜密,逻辑清晰,为了方便读者。 ⛳️ 座右铭: 行百里者,半于九十。 📋📋📋 本文目录如下: 🎁🎁🎁 目录 💥1 概述 📚2 运行结果 🎉3 参考文献 🌈4 Matlab代码、数据、文章

    2024年03月14日
    浏览(55)
  • 计算机竞赛 题目:基于机器视觉opencv的手势检测 手势识别 算法 - 深度学习 卷积神经网络 opencv python

    🔥 优质竞赛项目系列,今天要分享的是 基于机器视觉opencv的手势检测 手势识别 算法 该项目较为新颖,适合作为竞赛课题方向,学长非常推荐! 🧿 更多资料, 项目分享: https://gitee.com/dancheng-senior/postgraduate 普通机器视觉手势检测的基本流程如下: 其中轮廓的提取,多边形

    2024年02月07日
    浏览(81)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包