YOLO是Region-free方法,只需要一次扫描,也被称为单阶段(1-stage)模型。而Region-based方法方法,如mask-rcnn ,被称为两阶段(2-stage)方法。
YOLOv1-v3是原作者,v4和v7是一个作者。v5和v8是一个作者,但其缺少论文。
1 YOLOv1
2015年6月《You Only Look Once: Unified, Real-Time Object Detection》
论文地址https://arxiv.org/abs/1506.02640
2 YOLOv2
2016年论文《YOLO9000:Better, Faster, Stronger》
可参见:YOLOv2、YOLO9000论文笔记YOLOv2、YOLO9000论文笔记_AI强仔的博客-CSDN博客
3 YOLOv3
YOLOv3
的论文于2018年发表在CVPR
上.
论文下载地址《YOLOv3: An Incremental Improvement 》: https://arxiv.org/abs/1804.02767
yolov3
之后的原作者Joseph Redmon
因为yolo
的军事应用和对他人个人隐私风险而退出了yolo
系列的研究。
4 YOLOv4
2020年4月。作者团队:Alexey Bochkovskiy&中国台湾中央研究院
论文链接《YOLOv4: Optimal Speed and Accuracy of Object Detection 》:https://arxiv.org/pdf/2004.10934.pdf
5 YOLOv5
2020年6月。Ultralytics 的创始人兼 CEO Glenn Jocher 放出了 YOLOv5.
YOLO V5 在性能上稍弱于YOLO V4,但是在灵活性与速度上远强于YOLO V4,在模型的快速部署上具有极强优势。虽然现在的研究成果还达不到“下一代”YOLO的高度,但是被称作YOLO V4.5或者Above YOLO 是没问题的。
git地址:GitHub - ultralytics/yolov5: YOLOv5 🚀 in PyTorch > ONNX > CoreML > TFLite
YOLOv5 自从 2020 年发布以来,一直是没有论文的。
6 YOLOv6
2022年9月。论文: 《YOLOv6: A Single-Stage Object Detection Framework for Industrial Applications》。YOLOv6(已取得YOLO作者的许可,不再是YOLOv6-MT)是美团技术团队面向工业应用设计的单阶段目标检测方案。
github: https://github.com/meituan/YOLOv6
7 YOLOv7
2022年7月。YOLOV7是目前YOLO系列最先进的算法,在准确率和速度上超越了以往的YOLO系列.YOLOv4团队打造YOLOv7。
论文地址《YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors 》:https://arxiv.org/abs/2207.02696
8 YOLOv8
YOLOv8 是 ultralytics 公司在 2023 年 1月 10 号开源的 YOLOv5 的下一个重大更新版本,目前支持图像分类、物体检测和实例分割任务.
参考:Home - Ultralytics YOLOv8 Docs文章来源:https://www.toymoban.com/news/detail-518541.html
论文:截止2023年7月3日好像还没出来。文章来源地址https://www.toymoban.com/news/detail-518541.html
到了这里,关于YOLO系列v1-v8的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!