Ultra-Fast-Lane-Detection代码解析

这篇具有很好参考价值的文章主要介绍了Ultra-Fast-Lane-Detection代码解析。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

近期由于学习要求,复现成功Ultra-Fast-Lane-Detection代码后,记录下自己在原理上的学习笔记,本人刚接触这块,有不对的地方欢迎指正。

代码链接:GitHub - cfzd/Ultra-Fast-Lane-Detection: Ultra Fast Structure-aware Deep Lane Detection (ECCV 2020)

论文创新点:

使用全局特征的基于行的选择问题,提出了一个结构损失模型来明确地建模车道的结构。

对于车道检测,主流的方法有两种,一种是传统图像处理方法,另一种是深度分割方法。

利用全局特征在图像的预定义行中选择车道的位置,而不是基于局部接受域分割车道的每个像素,这大大降低了计算成本。

利用全局特征,获得了整幅图像的接受域。

车道不是用分割地图来表示,而是用不同行上的选定位置来表示。

通过优化所选位置的关系,即结构损失,直接利用车道的刚性、光滑性等特性。

基于全局特征预测每个行锚上所有位置的概率分布。因此,可以根据概率分布来选择正确的位置(即根据车道线分布的全局信息,预测对于某一行锚中车道线的分布)。

Ultra-Fast-Lane-Detection代码解析,python,计算机视觉,深度学习,人工智能,Powered by 金山文档

下图就是论文中将论文结果的预测方式与分割网络的预测方式进行对比。

Ultra-Fast-Lane-Detection代码解析,python,计算机视觉,深度学习,人工智能,Powered by 金山文档

针对算法研究中输入/输出数据的解读

输入数据的处理在data文件夹中。

复现采用CULane数据集,读取原始图片格式为(288,800)/(h,w)

选择dataset后做图片预处理,在data/dataset.py中可以看到预处理代码。

    def preprocess(self, image, swap=(2, 0, 1)):
        resized_img = cv2.resize(image,(800,288)).astype(np.float32)
        resized_img=resized_img[:,:,::-1]
        resized_img /= 255.0
        resized_img -= (0.5, 0.5, 0.5)
        resized_img /= (0.5, 0.5, 0.5)
        resized_img = resized_img.transpose(swap)
        padded_img = np.ascontiguousarray(resized_img, dtype=np.float32)

data/dataloader.py读取数据集定义trian和test数据集,CULane数据为18个点,图片格式为(288,800)/(h,w)

transforms.Normalize((0.485, 0.456, 0.406), (0.229, 0.224,0.225))。

netron查看输入数据格式为

Ultra-Fast-Lane-Detection代码解析,python,计算机视觉,深度学习,人工智能,Powered by 金山文档

对整个网络的学习引用万能的网友总结出的笔记,图中lane=4,采用的是CULane数据集,因为CULAne数据集没有Tusimple数据集复杂,每条车道线的18个点,其中grid_num=200,就是将整个图分为200份。

Ultra-Fast-Lane-Detection代码解析,python,计算机视觉,深度学习,人工智能,Powered by 金山文档

根据论文中的基于行的选择,最终的输出维度为1*201*18*4。

netron查看的输出数据格式为:

Ultra-Fast-Lane-Detection代码解析,python,计算机视觉,深度学习,人工智能,Powered by 金山文档

论文的总体的结构如下,辅助分支显示在上面的部分,它只在训练时有效。特征提取器显示在蓝色框中。基于分类的预测和辅助分割任务分别显示在绿色和橙色框中。对每一行锚进行组分类。文章来源地址https://www.toymoban.com/news/detail-643209.html

Ultra-Fast-Lane-Detection代码解析,python,计算机视觉,深度学习,人工智能,Powered by 金山文档

到了这里,关于Ultra-Fast-Lane-Detection代码解析的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • FAST协议解析3 FIX Fast Tutorial翻译 HelloWorld示例

    Fields in FAST do not have a fixed size and do not use a field separator. Instead, there is a notion of a stop bit (the high order bit on each byte of the message acts as a stop bit) signaling the end of the field. All of the above concepts used together allow the sender to compress a message (sometimes as much as 90%) and the receiver to restore the origina

    2024年02月03日
    浏览(45)
  • FGSM(Fast Gradient Sign Method)算法源码解析

    论文链接:https://arxiv.org/abs/1412.6572 源码出处:https://github.com/Harry24k/adversarial-attacks-pytorch/tree/master FGSM的全称是Fast Gradient Sign Method(快速梯度下降法),在白盒环境下,通过求出损失 cost 对输入的导数,然后用符号函数 sign() 得到其具体的梯度方向,接着乘以一个步长 eps ,得

    2024年02月08日
    浏览(72)
  • 安卓全机型 玩机 搞机 ADB FAST 各种指令解析说明与操作

    其实adb命令可以比喻为电脑的dos操作。通过一些指令可以完成很多操作。也有一些作者把这些指令汇总到一起开发成可视化的图形工具,其中的精品有类似 晨大大 的搞机助手这些。类似  今天这个帖子把一些常用的命令分享给大家 了解其中的含义,便于搞机,其中的指令不

    2024年02月05日
    浏览(46)
  • Fast-BEV代码复现实践

    最近在研究一些BEV视觉感知算法,这里记录一下Fast-BEV代码复现实践,专业踩坑 ^_^ 理论这里就不详细介绍,详情见原作者论文Fast-BEV: A Fast and Strong Bird’s-Eye View Perception Baseline 其他csdn,知乎上理论讲解也比较详细。主要还是本人太菜,讲不了理论,这里只讲工程复现 ^_^ 如果

    2024年02月08日
    浏览(65)
  • Fast Planner——代码解读参考资料整理

    参数解读 主要函数解读 概率栅格地图,概率更新过程的公式推导过程 全概率公式、贝叶斯公式 一. kinodynamic a_star(前端hybrid A_star动力学路径搜索) 1.1启发函数的计算 1.2 Compute shot Traj 1.3 节点扩张 1.4 节点剪枝 1.5 返回kinopath与 getsamples 二、B样条曲线设置 2.1 均匀B样条设置

    2024年02月05日
    浏览(92)
  • Incremental Object Detection via Meta-Learning【论文解析】

    摘要:在真实世界的情境中,目标检测器可能会不断遇到来自新类别的物体实例。当现有的目标检测器应用于这种情景时,它们对旧类别的性能会显著下降。已经有一些努力来解决这个限制,它们都应用了知识蒸馏的变体来避免灾难性遗忘。然而,我们注意到,尽管蒸馏有助

    2024年02月06日
    浏览(39)
  • 摄像头 2lane和4lane的区别

    2Lane和4Lane是指摄像头的数据传输通道数。具体来说,Lane是一种差分传输方式,每个Lane代表一条数据传输通道。在摄像头的数据传输中,2Lane代表摄像头有2条数据传输通道,4Lane代表摄像头有4条数据传输通道。 摄像头的通道数越多,其数据传输速度越快,同时也能传输更多的

    2024年02月08日
    浏览(30)
  • End-to-End Object Detection with Transformers(论文解析)

    我们提出了一种将目标检测视为直接集合预测问题的新方法。我们的方法简化了检测流程,有效地消除了许多手工设计的组件的需求,如显式编码我们关于任务的先验知识的非极大值抑制过程或锚点生成。新框架的主要要素,称为DEtection TRansformer或DETR,包括一个基于集合的全

    2024年02月09日
    浏览(44)
  • AI免费写代码chatGPT软件Build Software. Fast

    新版要注册登录(有汉化教程) 1.软件简介 Build Software. Fast.是一款AI编辑器,使用 openAI GPT-4 模型编写的软件 我的评价是里面接入的AI没有GPT3.5 智能,并不是很好用,奈何它免费,不要相信网上免费注册chat GPT的, 因为官方成本摆在哪里 ​ 官网地址:https://www.cursor.so/ 如果

    2023年04月21日
    浏览(35)
  • 【计算机视觉】Fast Segment Anything 安装步骤和示例代码解读(含源代码)

    论文地址: 快速分段任意模型 (FastSAM) 是一种 CNN 分段任意模型,仅由 SAM 作者发布的 SA-1B 数据集的 2% 进行训练。 FastSAM 的性能与 SAM 方法相当,运行速度提高了 50 倍。 该代码需要 python=3.7 ,以及 pytorch=1.7 和 torchvision=0.8 。 请按照此处的说明安装 PyTorch 和 TorchVision 依赖项。

    2024年02月13日
    浏览(47)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包