遥感航拍影像25篇CVPR39个数据集

这篇具有很好参考价值的文章主要介绍了遥感航拍影像25篇CVPR39个数据集。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

摘要

本文讲解了39个数据集,关于高空卫星图和低空无人机航拍图像。

本文汇总了25篇CVPR2020年和2021年的论文。

本文详细介绍了这25篇论文的任务是什么,难点是什么,场景是什么。

同时,本文在需要的地方解释了一些卫星图和航拍图的入门常识和前置知识,比如digital surface model的含义。

目前有许多研究生毕业论文是做CV这个领域的,模型创新十分困难,于是许多同学转而寻找场景创新。阅读本文,你可以了解到目前学界最优秀的学者在卫星图和航拍图这个领域是如何切入的,做什么任务的。通过看他们是如何寻找场景创新的,也许你就可以依葫芦画瓢,寻找到你的场景创新的灵感。

祝各位研究生都能写出论文、顺利通过答辩!


 遥感=Remote Sensing;航拍=Aerial Image

遥感图像一般来自卫星,航拍图像可能来自大型飞机、无人机、直升机等。

目录

一、 高空卫星遥感地图

        4-图像分割

        4-建筑三维重建

        3-地物属性-比如高度-预测

        3-时间序列

二、 低空无人机航拍图

        4-目标检测Detection画方框

        3-跟踪任务(应该和目标检测合并)

        1-图片分类-目标识别Recognition

        1-无法归类

三、 选场景的思路


1 高空卫星遥感地图

4-图像分割

东西在哪是什么轮廓是像素级的

[1]2020_Zheng_Cite=72_Supplementary Material of Foreground-Aware Relation Network for Geospatial Object Segmentation in High Spatial Resolution Remote Sensing Imagery

地理目标语义分割,航拍地图语义分割,遥感目标检测:检测建筑物、水域、河流、车辆、船舶

数据集iSAID:A Large-scale Dataset for Instance Segmentation in Aerial Images

https://captain-whu.github.io/iSAID/

场景:HSR(high spatial resolution)) remote sensing imagery.

  [1]什么是spatial resolution: Spatial resolution is the detail in pixels of an image or how detailed objects are in an image. .;放一个热气球在天上,热气球上带着摄像头,不断地在拍照片。随着热气球的下降,你会发现照片里面的object变得shaper了,更清晰了,也就是你的spatial resolution变得finer-更精细了。

  [2] high spatial resolution:这里的high不是说你在高空拍照片,而是指的清晰度resolution。更高的清晰度,意味着这个摄像头所在的位置距离地面更近,意味着图片中有更多的detail,你这个图片所表示的这个区域gird cell size自然会更小。因此HSR一般是无人机drone拍出的照片

  [3] low spatial resolution:清晰度低的,距离地面较低的摄像头拍出来的。

遥感航拍影像25篇CVPR39个数据集

任务:instance segmentation

特色:largest dataset 对于HSR这个场景,而且是第一个实例分割数据集

细节:包含2,806张 HSR remote sensing images.是由multiple sensors and platforms收集的 图片的 resolutions分辨率有大有小,图片尺寸也有大有小,从800 × 800 pixels到4000 × 13000 pixels.的图片都有。一共15 categories(是 important and commonly occurring categories)。这接近三千张图片上,,一共有655,451 instances (每个类别的实例很多,每张图片上的实例很多)。在这个数据集上,你分割出来这个实例,大小的变动比较大huge object scale variation,一张图片里包含下面这三种大小的实例,small, medium and large objects。

数据集图片样例:

遥感航拍影像25篇CVPR39个数据集

[2]2021_Li_Cite=30_PointFlow Flowing Semantics Through Points for Aerial Image Segmentation

航拍图像分割

三个不同的航空分割数据集上做的试验、

难点:航空图像分割是一个特殊的语义分割问题,具有一般语义分割所不具备的几个挑战性特点。其中有两个关键问题:前后景分布不均衡复杂背景下的多个小物体。过度引入背景上下文使得模型性能下降

数据集1:iSAID dataset

在航拍图上用mask来做语义分割(车这个category用深蓝色,运动场这个category用浅蓝色表示)

遥感航拍影像25篇CVPR39个数据集

 遥感航拍影像25篇CVPR39个数据集

这些点有什么用啊?代表什么呀?

Visualization of sampled points for both point flows.(抽啥样啊?抽样干什么呀?)

我猜测是这样,测试集的地图是没有ground truth的,需要人工去标注,但是没那么多人力,所以用红点标记(也可能是错的)

Top: Salient显著的主要的 Flow points.(我没看出上面这个显著和主要在哪里?)

遥感航拍影像25篇CVPR39个数据集

Bottom: Boundary Flow points.边界这个是可以理解的,这些点也确实是在边界

遥感航拍影像25篇CVPR39个数据集

 遥感航拍影像25篇CVPR39个数据集

 遥感航拍影像25篇CVPR39个数据集

数据集2:The Vaihingen dataset.

数据集下载地址:https://www.isprs.org/education/benchmarks/UrbanSemLab/default.aspx(除了这个和下一个,多伦多的数据集也有;多伦多和上面这两个地方的3D语义分割也有,3D重建也有)

场景:Vaihingen,德国的一个不知名的村庄,是一个相对较小的村庄,有许多独立的建筑和小的多层建筑

任务:语义分割,将航拍照片中的,object分割出来,进行分类,label的话有下面六种,代表土地覆盖类别,颜色也放在了后面。

  ①不透水面 (RGB: 255, 255, 255)

  ②建筑物(RGB: 0, 0, 255)

  ③低矮植被 (RGB: 0, 255, 255)

  ④树木 (RGB: 0, 255, 0)

  ⑤汽车(RGB: 255, 255, 0)

  ⑥背景 (RGB: 255, 0, 0)

  特色:数据集里的图是true orthophoto (TOP)正射影像图。TOP图是一种经过几何纠正(比如使之拥有统一的比例尺)的航摄像片。与没有纠正过的航摄像片不同的是,人们可以使用正射影像量测实际距离,因为它是通过像片纠正后得到的地球表面的真实描述。Google 地球就是使用正射影像。传统的航拍影像是perspective projection透视投影来做的图,从一点出发做投影拍摄,因为地面建筑的高度不同,如果直接用地图上的距离是不准确的。比如下面的右图,因为两栋楼的房顶高度不同,原本的距离会被高估或低估(这里我也不知道是高估还是低估)

遥感航拍影像25篇CVPR39个数据集

细节

  33幅(一幅=patch)不同大小的遥感图像,每幅图像都是从一个更大的顶层正射影像图片提取的

  顶层影像和DSM的空间分辨率为9 cm。;遥感图像由近红外、红色和绿色3个波段组成

  把每张图片裁剪成这么多的碎片cropping into 768×768 patches.(是每张吗?)

  ——38张图从哪来?这个33张图来自于,切成38个patch(但是他上面说是33幅图,多了五张图,多出来的五张图是测试集--应该是分割的结果并没有公开)

遥感航拍影像25篇CVPR39个数据集

  样例:分割结果

   给了两组数据(a) true orthophoto, (b) DSM某个多边形区域海拔高,应该是建筑物,所以就赋予建筑物的label--这个高度数据对于做分割和labeling是有帮助的。朝着C这幅图的方向去优化 (c) ground truth

  DSM=Digital Surface Model,是指包含了地表建筑物、桥梁和树木等高度地面高程模型。和DEM相比,DEM(Digital Elevation海拔高程 Model)只包含了地形的高程信息,并未包含其它地表信息(建筑物和桥梁),DSM是在DEM的基础上,进一步涵盖了除地面以外的其它地表信息(建筑物房顶和桥梁)的高程。在一些对建筑物高度有需求的领域,得到了很大程度的重视。DSM表示的是最真实地表达地面起伏情况,可广泛应用于各行各业

    ——这里的DSM的图,其实很粗糙,高度越高越白,高度越低约黑

遥感航拍影像25篇CVPR39个数据集

数据集3:The Potsdam dataset

  场景:Postdam,波茨坦,德国城市,就是签署波茨坦公告的那个地方,是一个典型的历史城市,有着大的建筑群、狭窄的街道和密集的聚落结构

  任务:和上面那个都是ISPRS(the International Society for Photogrammetry摄影测量 and Remote Sensing)这个学会做的,任务和categories都是一样的。

  细节

  38幅相同size的图像,其实是一副大图像切割成的

遥感航拍影像25篇CVPR39个数据集

  顶层影像和DSM的空间分辨率为5 cm

  提供了归一化DSM,即在地面过滤之后,每个像素的地面高度被移

  分割样例

遥感航拍影像25篇CVPR39个数据集

  把图片裁剪成这么多的碎片896×896 patches.

数据集4:Cityscapes

场景:德国50个城市的城市街景street scenes,三个季节具有季节特色的图片。

任务:语义分割,类别如下

特色:

  图片和large,5000张精细标注的图片fine annotations(实际用了1525张图,因为这些图比较fine精细),20000张粗略标注的图片annotated images with coarse annotations

  类别多、质量高的像素级语义分割标注,high quality pixel-wise annotations for 19 classes(实际是有30个class)。这1500+张图片的总的annotation数量为2975,500

遥感航拍影像25篇CVPR39个数据集

  图片清晰度高-像素高,像素值=2048 × 1024。

  拍照时间为白天,天气状况为Good/medium

数据集图片样例

遥感航拍影像25篇CVPR39个数据集

数据集5: BDD100K (Berkeley DeepDive)

https://doc.bdd100k.com/usage.html

https://arxiv.org/abs/1805.04687

场景:road scene街景,driving videos行车记录仪拍下的录像

任务:可以做语义分割,也可以做目标检测

特色

  8000张图

  various weather conditions,time, and scene types.

细节

数据集图片样例

遥感航拍影像25篇CVPR39个数据集

数据集6:ADE20k

类似的数据集还有SUN和Places

https://groups.csail.mit.edu/vision/datasets/ADE20K/

场景:房屋内部图片、行车道路图片、酒吧内部图片

任务:语义分割

特色

  他这个类别的annotation做的特别细,比如一个水瓶bottle,里面的零件都会被识别出来,比如base水瓶底座,cap水瓶上面的帽子,label水瓶上的塑料纸,neck水瓶的脖子

  scene parsing dataset

  类别很多,150 classes;图片多达20k张

数据集图片样例

遥感航拍影像25篇CVPR39个数据集

他在展示performance score的时候除了展示了上面这三个数据集,也列出了Param(M),GFlops(G),这两个表示什么意思?是新的数据集吗(但是论文和supp都查不到这两个东西是代表一个新的数据集还是一个组件数据集的方法)

[3]2020_Tan_Cite=41_VecRoad: Point-Based Iterative Graph Exploration for Road Graphs Extraction(Tan,2020)

(中国的城市没做过,我把卫星图拿下来,做了叫不叫创新,他们主要拿着美国纽约)

数据集:RoadTracer Dataset

  场景:aerial image 航拍图 the urban center of 40 cities across six countries.

  任务:道路轮廓与道路网络提取extraction of road networks from aerial images,地点

  特色:暂无

细节:每张图表示的地表实际面积是:24 km2 coverage per image。图片的清晰度和每个像素代表的地面实际距离:Each aerial image contains 4096×4096 pixels with the precision of 60 centimeters per pixel.——数据来源:The aerial images are collected from Google(从谷歌拿到的是航拍卫星地图), and the ground-truth is from Open-StreetMap (OSM) project(这上面标记好了真实的道路的线)。——label的标记是像素级的--和语义分割的ground-truth是一样,OSM is rather pixel-labeling images,

  卫星图数据集-RoadTracker:https://roadmaps.csail.mit.edu/roadtracer/

  Ground truth:https://www.openstreetmap.org/#map=16/22.5316/114.0517

遥感航拍影像25篇CVPR39个数据集

数据集图片样例

Ground truth

遥感航拍影像25篇CVPR39个数据集

Our segmentation

 遥感航拍影像25篇CVPR39个数据集

[4]2020_Veeravasarapu_Cite=2_ProAlignNet Unsupervised Learning for Progressively Aligning Noisy Contours(Veeravasarapu,2020)

(不提供代码,不提供他手动标记的数据集)

任务:在图片有噪声干扰的情况下,实现图像轮廓线对齐contour alignment(这东西有什么用呢?)

数据集1:contourMNIST--toy dataset,一开始的时候做一个测试实验

改造adopt了MINIST数据集。将MINIST数据集的7w张黑白gray-scale图片的清晰度resolution从28×28放大upsampled to 128×128,把这些图转成了轮廓图converted as a contour轮廓 image,标记图像形状的边界或外形线

数据集2:Geo-parcel

场景:界定公有和私有土地边界identify public and private land property boundaries.,Parcel是一小块土地的意思--就是这里要界定的这个土地边界

任务:使得轮廓图和卫星图对齐aligning geo-parcel data to aerial images,轮廓图和卫星图叠加在一张图上,从而使得轮廓变得更加准确(最后一句是我猜的)。ground truth提取了 大马路road和人行道side work

痛点:parcel这个轮廓二值图和卫星图拍摄时候的角度略有不同due to several differences in their collection processes,因此会出现对齐上的不准确misalign,对齐上的偏移大概10 meters。下面那个图展示了偏移。

细节:

  1189 对 航拍图和土地轮廓二值图的 aerial and parcel image pairs,在加州Redding的居民区residential areas

  在验证集,作者手动对齐了27对parcel-aerial image,这27章图上有7000个parcel土地块上的多边形

  Parcels这个数据集上的图是矢量图shapefifiles,图上是有 GPS经纬度坐标的 lat-long gps coordinates。(能不能给张数据集样例给我看看?)。这个有GPS经纬度的坐标,可以把这些土地地块的形状通过透视投影影映(perspective projection)射到航拍图的坐标系。上面这个映射的过程做出来的图,是一个二值轮廓图binary contour images(是轮廓的用1表示,不是轮廓就是0)。

遥感航拍影像25篇CVPR39个数据集

 遥感航拍影像25篇CVPR39个数据集

这是before alignment时候的一个图,展示了当时的的misalign

红色这个是ground truth,蓝色的这个是parcel这个轮廓二值图(parcel contours)直接覆盖上来划分的这个边界

右边对齐的很好,左侧就明显的偏了,像平移的一样。(原因是parcel这个二值边界图和卫星图的拍摄角度略有不同,所以对齐的就略有不同,所以)

遥感航拍影像25篇CVPR39个数据集

 遥感航拍影像25篇CVPR39个数据集

数据集图片样例

遥感航拍影像25篇CVPR39个数据集

这三个例子,是说二值图和卫星图直接叠加是不行的,所以才有要改进的地方,也是这篇文章要解决的问题。

遥感航拍影像25篇CVPR39个数据集

 遥感航拍影像25篇CVPR39个数据集

4-建筑三维重建

[1]2020_Liu_Cite=31_A Novel Recurrent Encoder-Decoder Structure for Large-Scale Multi-View Stereo Reconstruction From an Open Aerial Dataset

(文献综述写了一些3D建筑重建的数据集)

代码&数据集 | http://gpcv.whu.edu.cn/data/

WHU Dataset

场景:贵州湄潭县的城市建筑3D重建(像模拟城市那样),采集是用一个安装在无人机上的5个视角的摄像头采集的。oblique five-view camera rig mounted on an unmanned aerial vehicle (UAV).

任务:城市建筑物3D重建

细节

  1,776 virtual aerial images

  each 5376 × 5376 pixels in size.

  覆盖地域:covered an area of about 6.7 × 2.2 km2 overMeitan County, Guizhou Province in China with about 0.1m ground resolution.

  涉及的senario dense and tall buildings, sparse factories, mountains covered with forests,and some bare ground and rivers.

数据集图片样例

  像模拟城市那样

遥感航拍影像25篇CVPR39个数据集

 遥感航拍影像25篇CVPR39个数据集

根据建筑物的高度做的surface model,标明每个点的高度

遥感航拍影像25篇CVPR39个数据集

 遥感航拍影像25篇CVPR39个数据集

[2]2020_Lu_Cite=24_Geometry-Aware Satellite-to-Ground Image Synthesis for Urban Areas

场景:重建的是伦敦市的建筑3D图。 centered in the City of London

任务:从高空卫星地图来用模型制作的制作的3D街景图尽可能的逼近gound truth的panorama全景图

特色

细节

  区域面积:4km×6km area

数据集图片样例

  左边是我们的raw material,右边是根据卫星图重建出来的3D街景图

  Ground truth是由stereo matching生成的,他们也下载了谷歌街景图street-view images via the Google Street View Static API1

  街景图的数量是三万张

  这些图都带有with longitude, latitude, and orientation information

遥感航拍影像25篇CVPR39个数据集

[3]2020_Mahmud_Cite=27_Boundary-Aware 3D Building Reconstruction From a Single Overhead Image

The 2019 IEEE GRSS Data Fusion Contest dataset(GRSS DFC 2019)

http://www.classic.grss-ieee.org/community/technical-committees/data-fusion/2019-ieee-grss-data-fusion-contest-2/

场景:在美国的一些地方做的Jacksonville, Florida and Omaha, Nebraska, United States.

细节

  高空卫星图images, semantic segmentations, and nDSMs data surface model表示卫星图上建筑物高度的图

  图片包括:satellite images, airborne lidar, and semantic labels

数据集图片样例

从左到右,卫星地图,DSM标记高度,最右边就变成立体的了

遥感航拍影像25篇CVPR39个数据集

USSOCOM Urban 3D dataset

https://spacenet.ai/the-ussocom-urban-3d-competition/

场景:是哪里的城市地图确实没说

任务

特色

细节

  Images and nDSMs

  360 km of terrain and containing roughly 157,000 annotated building footprints

数据集图片样例

从高度图

遥感航拍影像25篇CVPR39个数据集

重建成这样

遥感航拍影像25篇CVPR39个数据集

The SpaceNet Buildings Dataset v2

场景:这些城市的卫星图都有Rio de Janeiro, Las Vegas, Paris, Shanghai, Khartoum

任务

   building footprint detection,把建筑物那个块给他分割出来

  但是这篇论文用来做3D重建了,我不知道ground truth是怎么来的?自己采集的?

细节

  建筑数contains over 302,701 building footprints,

  这个公司高达3/8的卫星图都拿过来了。3/8-band Worldview-3 satellite imagery at 0.3m pixel res.,

   across 5 cities (Rio de Janeiro, Las Vegas, Paris, Shanghai, Khartoum), and covers areas that are both urban and suburban in nature.

数据集图片样例

   footprint detection,全给你分割出来了

遥感航拍影像25篇CVPR39个数据集

从单幅航拍图像中进行边界感知的三维建筑重建。

[4]2020_Zhang_Cite=29_Conv-MPN: Convolutional Message Passing Neural Network for Structured Outdoor Architecture Reconstruction

场景:这些城市的卫星图Atlanta, Paris and Las Vegas

任务:(确定要做这个再去看论文,弄懂这个,肯定写的很清楚,因为有些模型也会分错,他为了纠正划分错误花了很多力气,他不会不说清楚ground truth是怎么定下来的)到底是做什么,按照什么标准来分割?为什一个楼探出

细节

  RGB卫星图来自于SpaceNet,也是这个比赛的数据集SpaceNet Challenge

数据集图片样例

遥感航拍影像25篇CVPR39个数据集

 遥感航拍影像25篇CVPR39个数据集

遥感航拍影像25篇CVPR39个数据集

3-地物属性-比如高度-预测

建筑三维重建的一个属性

[1]2020_Christie_Cite=15_Learning Geocentric Object Pose in Oblique Monocular Images

预测地物的高度和姿态

US3D

场景:美国两个地方的地图Jacksonville, Florida and Omaha, Nebraska,Atlanta, Georgia.

任务:predict geocentric pose,就干两件事,(1)距离地面的高度object's height above ground and (2)相对于重力而言的方向orientation with respect to gravity.

细节

  2019 Data Fusion Contest

数据集图片样例

  颜色越深,就越高,

  蓝色表示朝向的背面

遥感航拍影像25篇CVPR39个数据集

SN4

场景:美国这地Atlanta, GA using

任务:原始数据集是用来做分割或者目标检测的,然后这个人有拿去做地物属性

特色

细节

数据集图片样例

原图

遥感航拍影像25篇CVPR39个数据集

语义分割做的挺好的

遥感航拍影像25篇CVPR39个数据集

目标检测,大的建筑物识别出来了,也有的没识别出来

遥感航拍影像25篇CVPR39个数据集

[2]2020_Shi_Cite=51_Where Am I Looking At? Joint Location and Orientation Estimation by Cross-View Matching

通过跨视角匹配进行联合位置和方向估计

CVUSA

场景:每一条数据由3幅图组成(1)全景图panoramas(2)aerial images

任务:3D场景重建

细节

  ground images全是全景图panoramas,all the ground and aerial

  images are north aligned.

  35, 532 training ground and aerial pairs and 8, 884testing pairs.

数据集图片样例

森林中间一条路,两边有别墅,你站在中间,把这个场景重建了

遥感航拍影像25篇CVPR39个数据集

 遥感航拍影像25篇CVPR39个数据集

CVACT

一切同上

遥感航拍影像25篇CVPR39个数据集

 遥感航拍影像25篇CVPR39个数据集

[3]2021_Derksen_Cite=4_Shadow Neural Radiance Fields for Multi-view Satellite Photogrammetry

多视角卫星摄影测量(我不知道他在测量什么,是地面上建筑的距离吗?)satellite imagery

WorldView-3

就是卫星地图,该怎么测量就怎么测量

遥感航拍影像25篇CVPR39个数据集

3-时间序列

[1]2020_Garnot_Cite=63_Satellite Image Time Series Classification With Pixel-Set Encoders and Temporal Self-Attention

卫星图像时间序列分类

Sentinel-2 time series

是个农业场景,图片里的object的category有牧场Meadow Winter Cereal, SummerCereal, 葡萄藤Grapevine。

被分割成这样

遥感航拍影像25篇CVPR39个数据集

[2]2020_Workman_Cite=9_Dynamic Traffic Modeling From Overhead Imagery(Workman,2020)

The Dynamic Traffic Speeds (DTS) dataset

场景:纽约市这个区域的堵塞地图 in The Bronx, New York City.(高德上有这个功能,已经做的很完善了)

任务:预测地图上每条道路的车流速度(表示交通通畅度,是否堵车),红色表示车流速度慢,绿色表示车流速度快--通畅;通过航拍影像建立动态交通模型

数据集图片样例

下面这张图是周一凌晨四点纽约交通通畅度地图,除了西边地区比较堵,东边不堵

遥感航拍影像25篇CVPR39个数据集

下面这张图是周一早八点纽约交通通畅度地图,大陆不堵,其他全堵,西边比东边堵

遥感航拍影像25篇CVPR39个数据集

[3]2020_Salem_Cite=14_Learning a Dynamic Map of Visual Appearance

基于航拍图像的视觉表面属性的动态映射(不懂是什么场景)

Cross-View Time (CVT) Dataset

细节

  每组数据都包括(1)geotagged ground-level images(2)拍照图片corresponding capture time,(3)co-located overhead images——最最大的特色是,春夏冬三个季节、一天的早上 正午、凌晨都有

数据集图片样例

  (1)ground image

遥感航拍影像25篇CVPR39个数据集

(2)co-located overhead images

清晨八点-太阳还不大

遥感航拍影像25篇CVPR39个数据集

9:30太阳光起来了

遥感航拍影像25篇CVPR39个数据集

大正午头13:35

遥感航拍影像25篇CVPR39个数据集

下雨的中午一点

遥感航拍影像25篇CVPR39个数据集

下雪的太阳不大清晨,雪不大

遥感航拍影像25篇CVPR39个数据集

雪很厚的凌晨4:30

遥感航拍影像25篇CVPR39个数据集

2 低空无人机航拍图

4-目标检测Detection画方框

东西是什么在哪轮廓是方框

[1]2020_Pan_Cite=124_Dynamic Refinement Network for Oriented and Densely Packed Object Detection(Pan,2020)

SKU110KR Dataset

场景:超市货柜thousands of supermarket stores

任务

特色

  SKU110K有11, 762 images,标注的实例有1, 733, 678 instances

  various scales, viewing angles, lighting conditions,and noise levels.

  图片的清晰度极高,大小是百万像素,All the images are resized into a resolution

  of one megapixel

  任务有挑战性:实例的排布十分紧密-分割上是有难度的。Most of the instances in the dataset are tightly packed(挤在一起,塞满)

细节

  extended version of SKU110K。基于这个数据集做了很多改动

  数据增强,转换图片角度,丰富了数据集。大多数图的角度。typically of a certain orientation in the rage of [−15◦, 15◦]。perform data augmentation by rotating the images by six different angles, i.e., -45◦, -30◦, -15◦, 15◦, 30◦, and 45◦.。

数据集图片样例

遥感航拍影像25篇CVPR39个数据集

[2]2020_Yang_Cite=77_Reverse Perspective Network for Perspective-Aware Object Counting

UAV-based Vehicle Counting Dataset---自己起名叫UAVVC

(文章写得很好,很清楚,想要了解什么,很快就能让你找到)

场景:数无人机(=Unmanned Aerial Vehicle)的个数,the vehicle counting task

任务

特色

  数据是自己收集的,不是公开数据集,(目前作者不开放数据集的下载)800张照片

  场景丰富:50 different scenarios for vehicle counting

  标记更详细-Precise annotations:manually annotated with 32,770 bounding boxes,用的不是那种粗略的点标记instead of traditional point annotations

  拍摄图片的角度perspectives多,front-view in high latitude, front-view in low latitude, side-view, and topview.

  才不同天气收集了图片,in different weather conditions,sunny, raining, fog,night, and raining night(做上面这些的目的:increase the diversity of the dataset and make it closer to the real traffic circumstances.)

    frame是指的bounding box

遥感航拍影像25篇CVPR39个数据集

  (假设说,我这个场景创新,已有的数据集无法满足我的需求--或者已有数据集因为种种原因并不适合我用的这个模型,需要去自己收集数据的时候,可以参考这些看过的数据集的优点,尽可能我都要占)

细节

  the vehicle counting task有下面几个数据集。(1)固定摄像头拍下的照片数据集:TRANCOS v3(2)用UAV拍摄的图片数据集:CARPKPUCPR+。为啥不用他们呢?因为他们的circumstances都只有traffic这一情景,太单一了。而且图片大小的变动variation也太小了

  数据集图片样例:从不同角度拍摄的道路图片,他把道路上所有的车都框出来,然后输了有多少个框-车,标记在图上

遥感航拍影像25篇CVPR39个数据集

ShanghaiTech Dataset

场景:拥挤人群的人数计数crowd counting,都是人很多的那种拥挤场合,--数出人数的难度也比较大

任务:行人数量统计pedestrian counting

特色

  图片较多:1,198 images

  人太密集了,画bounding box会重合在一起一大堆,根本看不清,更加没法计数。所以在每个人头顶的中央标上一个圆点,表示检测到了Each person in a crowd image is annotated with one point close to the center of the head.

  对人的标记的annotation也比较多,the dataset consists of 330,165 annotated people

细节

  每张图的拍摄角度和清晰度是不同的different perspectives and resolutions

  数据集有两部分,part-A是从互联网上收集来的,part-B were collected on the busy streets of Shanghai.

数据集图片样例:首先人头标红点的这个图没显示,告诉你场景都是很拥挤的,然后把多少人的ground truth数出来了,预测的是多少个也写了

遥感航拍影像25篇CVPR39个数据集

WorldExpo10 Dataset

类似的crowd segmentation,crowd counting的数据集CUHK dataset

场景:这些拥挤人群的场景,马路road,排队queue,广场square,前面几个混合

遥感航拍影像25篇CVPR39个数据集

任务

  可以做图像分割,分割出人群拥挤程度的区域,(high = red, medium = yellow, low = green)。segmentation的重要性Crowd segmentation is the first step towards understanding crowds, because it answers the question of where the crowds are. Crowd counting, tracking, and behavior analysis are mainly based on the results of crowd segmentation,

遥感航拍影像25篇CVPR39个数据集

在这个数据集上还能做的其他任务

(a) 背景提取Result by background subtraction used

(b)optical flow,光流模型; 表示的是相邻两帧图像中每个像素的运动速度和运动方向;表示这个人接下来往什么方向走

(c)feature point tracking: image sequence上的motion information

(d)pedestrian detection

(e)Result by our data-driven approach-行吧,我不懂

遥感航拍影像25篇CVPR39个数据集

 遥感航拍影像25篇CVPR39个数据集

特色

  Bounding box标记较多:3,980 annotated frames

  做segmentation的时候总共从图片中分出了这么多个不同拥挤程度的多边形53 637 crowd

  segments with polygon boundaries

细节

  他的annotate是区域级的不是像素级的,annotated at the region level,人工做的。

数据集图片样例

UCSD dataset

场景:监控摄像头拍摄的图片,不是移动摄像头stationary surveillance cameras,这个摄像头的位置是一个朝向pedestrian walkways的摄像头

任务:识别 Abnormal events或者叫Anomaly (具体说就是 bikers, skaters, small cars, and people walking across a walkway or in the grass that surrounds it.轮椅和残疾人经过,A few instances of people in wheelchair were also recorded. All abnormalities are naturally occurring, i.)还是打方框,做目标检测

细节

  Bouding box 有 2,000 frames

  所有照片拍摄角度都一样:same perspective

  街上的人流密度是不断变化的,不是说有个固定的人流密度一直是这样,he crowd density in the walkways was variable,有时候crowd,有时候sparse

遥感航拍影像25篇CVPR39个数据集

[3]2021_Han_Cite=85_ReDet: A Rotation-equivariant Detector for Aerial Object Detection

航空影像检测,

DOTA-v1.0、DOTA-v1.5 和 HRSC2016 几个具有挑战性的航空图像数据集,

DOTA-v1.0

场景:卫星航拍图,collected from the Google Earth, GF-2 and JL-1 satellite provided by the China Centre for Resources Satellite Data and Application, and aerial images provided by CycloMedia B.V. DOTA

任务:oriented object detection(没查到解释,确定我是做这个方向的,我再去搞懂)

细节

  2806 large aerial images

  with the size ranges from 800 × 800 to4000×4000 and

  188, 282 instances

  among 15 common categories:

    类别信息:Plane (PL), Baseball diamond (BD), Bridge (BR),Ground track field (GTF), Small vehicle (SV),Large vehicle(LV), Ship (SH), Tennis court (TC), Basketball court(BC), Storage tank (ST),Soccer-ball field (SBF), Roundabout(RA), Harbor (HA), Swimming pool (SP), and Helicopter(HC).

数据集图片样例

  航拍图中的飞机

遥感航拍影像25篇CVPR39个数据集

航拍图中拖着集装箱的大卡车

遥感航拍影像25篇CVPR39个数据集

DOTA-v1.5

场景:是这个比赛发布的数据集DOAI Challenge 2019

特色

  有很多极端小的实例,是很难分割的extremely small instances (less than 10 pixels).

  训练的时候很stable,but stable during training

细节

  with a new category, Container Crane (CC)

  contains 402, 089 instances.

HRSC2016

(我们可不可以从谷歌地球上自己采集一些图片,识别一些稀奇古怪的东西,作为场景创新?)

场景:从谷歌地球上收集的航拍图collected from Google Earth.

任务:ship detection

细节

  1061 aerial images with the size ranges from 300 × 300 to 1500 × 900.

  OBB annotations(不知道具体是什么,从挑选场景的角度说知道这个是什么,没多大用)

数据集图片样例

  把船在卫星图上用方框标出来

遥感航拍影像25篇CVPR39个数据集

[4]2021_Ashraf_Cite=11_Dogfight: Detecting Drones from Drones Videos

(无人机追踪的用途就是像大雁南飞那样,后面的无人机可以)

(文献综述简单明了-写的不错,方法用了attention比较新)

难点:来源和目标无人机的不稳定运动、小尺寸、任意形状、大强度变化和遮挡使得该任务具有相当的挑战性。

NPS-Drones

场景:美国海军收集的published by Naval Postgraduate School (NPS)

任务:把图片中的无人机找到,并标个方框

细节

  contains 50 videos

  that were recorded at HD resolutions(1920×1080 and 1280×760)

  using GoPro-3 cameras

  mounted on a custom delta-wing airframe.

  The minimum,average and maximum size of drones are 10 × 8, 16.2 ×11.6, and 65 × 21, respectively.

  The total number of frames in the dataset are 70250.

数据集图片样例

  用肉眼,即使你把图片全屏,也很难找无人机的位置。所以这个应用场景是很有价值的。因为人做不了这个事

  但是我不知道,他这个方框是怎么标上去的,All right, it dosen't matter

遥感航拍影像25篇CVPR39个数据集

 遥感航拍影像25篇CVPR39个数据集

FL-Drones

场景:indoor and outdoor的照片,照片里有个小小的无人机

任务:把图片中的无人机找到,并标个方

特色

  非常有挑战性、做起来很难,因为extreme illumination, pose, and size changes.

    无人机在图片中很小,都mix在一起get mixed up in the background due to small sizeand

    光照很强,看不清无人机在哪intense lighting conditions

    背景复杂多样,这个模型得能在多种情境下都能吧无人机找到,complex background.

细节

  flying drones have variable shapes, and their shape is barely retained even in consecutive frames

  The minimum, average, and maximum sizes of drones are: 9×9, 25.5×16.4, and 259×197, respectively and frames resolutions are 640×480 and 752×480. This dataset contains 14 videos with a total of 38948 frames

数据集图片样例

遥感航拍影像25篇CVPR39个数据集

 遥感航拍影像25篇CVPR39个数据集

3-跟踪任务(应该和目标检测合并)

找一个东西在哪,这个东西在移动

[1]2020_Li_Cite=173_AutoTrack: Towards High-Performance Visual Tracking for UAV With Automatic Spatio-Temporal Regularization

无人机跟着一个人的照片数据集,人在就显示在,不在就显示不在

DTB70

场景

任务

  追踪无人机drone tracking,These sequences mostly focus on tracking people and cars,也有无人机

特色

  无人机大小不同various cluttered scenes(是说场景堆在一起?场景怎么堆在一起?) and objects with different sizes as well as aspect ratios are included.

  高速运动的时候拍下的这些照片,图片是很糊的,识别和追踪起来就困难,primarily addresses the problem of severe UAV motion.

细节

composed of 70 difficult UAV image sequences,

manually annotated the ground-truth bounding boxes in all video frames.

数据集图片样例

拍摄的无人机在高速运动,拍出来的照片很糊的,所以追踪上是有难度的

这张图片里还有其他的小赛车,也应该打方框

遥感航拍影像25篇CVPR39个数据集

追踪人,只是标了一个

遥感航拍影像25篇CVPR39个数据集

追踪无人机

遥感航拍影像25篇CVPR39个数据集

农业场景,养的牛羊,数数

遥感航拍影像25篇CVPR39个数据集

、追踪在海上冲浪的人,看看有多少个

遥感航拍影像25篇CVPR39个数据集

篮球场多少个人在打球,是不是违反了Cov-19的管控条例,说好了不让聚集的

无人机进行巡逻,装个摄像头,保安不用出去走路那么费劲就巡逻了一遍,确认没有打架的、小偷爬楼,特别好

遥感航拍影像25篇CVPR39个数据集

UAVDT

https://sites.google.com/view/grli-uavdt/%E9%A6%96%E9%A1%B5

场景

任务

  (1)object detection, (2)single object tracking,(3)multiple object tracking

    之前的数据集是,针对某一特定任务收集的,比如这个数据集只做无人机拍出照片里面的的目标检测,比如只追踪一个object。但这个数据集三个都能做

特色

  场景比较多、比较复杂complex ,emphasizes vehicle tracking in various scenarios.

    这样做的目的是提高模型泛化性,使得我的模型不仅仅适用于traffic senario-大马路上,也能到森林公园里用,到海滨浴场用

    以下这些senario都很多变动:Weather condition, flying altitude and camera view

    有14个场景变动因素。up to 14 kinds of attributes (e.g., weather condition, flying altitude, camera view, vehicle category, and occlusion

    高速运动的时候拍下的照片,很糊,camera motion

    里面的object很密,high density

    里面的object很小small object

细节

  Selected from 10 hours raw videos,

  about 80, 000 representative frames are fully annotated with bounding boxes

数据集图片样例

  右下角标记了senario,白天还是晚上,天气怎么样?有没有frog雾、下没下雨rain,视角是front view还是side view,高度是特别高还是中等还是低

  目标检测,小汽车 car和公交车 bus都标出来了

遥感航拍影像25篇CVPR39个数据集

UAV123@10fps

2016_Mueller_Cite=1100_A Benchmark and Simulator for UAV Tracking

(还有这些目标追踪数据集:OTB50, OTB100, VOT2014,VOT2015, TC128, and ALOV300++

无人机拍摄出的图片的数据集,知乎一个人汇总的很好:https://zhuanlan.zhihu.com/p/421968291

场景:各种场景都有

任务:目标检测,画方框,把bike,building,car,truck,person,wakeboard水上滑板,UAV,boat船

数据集图片样例

遥感航拍影像25篇CVPR39个数据集

VisDrone2018-test-dev

2018_Zhu_Cite=94_VisDrone-DET2018: The Vision Meets Drone Object Detection in Image Challenge Results (这篇文章里汇总了很多现存数据集)

http://aiskyeye.com/

场景:traffic senario也有,运动场也有,高空图像也有,低空图像也有

任务:识别行人pedestrian,汽车car,摩托车摩托车,三轮车

数据集图片样例

遥感航拍影像25篇CVPR39个数据集

[2]2020_Wen_Cite=21Detection, Tracking, and Counting Meets Drones in Crowds: A Benchmark

https://github.com/VisDrone/DroneCrowd

(梳理了存在的,人群识别和计数的数据集)

DroneCrowd

作者称这是迄今为止最大的数据集,其中包含了用于密度图估计、人群定位和无人机跟踪的头部标注轨迹。

场景:自己收集的,用drone-mounted安装好的cameras收集的。wide range of scenarios, e.g., campus, street cameras,park, parking lot, playground and plaza

任务

  (1)数人数Crowd counting and 估计密度density map estimation

  (2)拥挤人群的定位和追踪.

特色

细节

  The videos are recorded at 25 frames per seconds (FPS) with a resolution of 1920×1080 pixels.

  The maximal and minimal numbers of people in each video frame are 455 and 25 respectively。and the average number of objects is 144.8.

  标记量巨大:more than 20 thousands of head trajectories of people are annotated with more than 4.8 million head points in individual frames of 112 video

  成本很高,20个行业专家复核了annotation2个月才搞定:Over 20 domain experts annotate and double-check the dataset using the vatic software for more than two months clips.数据量大,质量高。

数据集图片样例

  三种场景下,人群的运动轨迹

遥感航拍影像25篇CVPR39个数据集

下面是四种模型,上面是估计拥挤人群在的地点-目标检测,下面是人群的移动轨迹

遥感航拍影像25篇CVPR39个数据集

[3]2022_Zeng_Cite=9_Visual Reaction: Learning to Play Catch With Your Drone

预测物体轨迹,并使无人机接住运动物体

场景:living room scenes of A12-THOR

  https://ai2thor.allenai.org/(是一个3D虚拟空间,十分卡通的逼真)

任务:有一个发射器launcher向空中扔东西 throws objects in the air 力度不同with different forces in 方向不同 different directions。(S1)预测运动轨迹predict the future trajectory of the object,预测的依据是:过去运动轨迹的观测数据the past observations。(S2)去接take actions at each timestep to intercept the object。那么什么叫接住了呢?catches the object, i.e. the object lies within the agent’s top-mounted basket, before the object reaches the ground.

特色

  每一条数据(每次抛出、试图去接)都保证了随机性,在房间的任何一个位置。For each episode, the agent接东西的那个小车 and the launcher还有拍图片的无人机drone都 start at a random position in the environment

    这样保证了轨迹预测和接住东西这个算法的泛化性较好,在各种场景都适用,具有通用性,才有价值。

细节

  扔东西的这个场所一共有30个30 scenes in total

数据集图片样例

遥感航拍影像25篇CVPR39个数据集

像一个3D游戏那样,有不同规格的客厅,

遥感航拍影像25篇CVPR39个数据集

然后你可以在这个虚拟的空间里面,干各种事,和在生活里是一样的。我猜测这个扔球的轨迹是,在这3D空间里是有数据的,可以记录每次扔球每一秒钟,球的位置,以及最终球落地的位置的坐标进行试验

遥感航拍影像25篇CVPR39个数据集

1-图片分类-目标识别Recognition

2021_Li_Cite=47_UAV-Human: A Large Benchmark for Human Behavior Understanding with Unmanned Aerial Vehicles

(感觉这个好不错哎,数据集数据量大,而且对于工业界也有用,比如警用无人机巡逻,监测是不是有人求救、是不是有打架、破坏公共设施等等犯罪行为)

UAV-Human Dataset

场景:它由一架飞行的无人机在三个月内的白天和夜晚在多个城市和农村地区收集的

任务:动作识别、姿势估计、对无人机图像的人类行为进行理解解析,分类出图片中人是在干什么?握手,锁车...

细节

  包含 67,428 个多模式视频序列和

   119 个用于动作识别的目标,22,476 帧用于姿势估计,41,290 帧和 1,144个 用于人员重识别的身份,以及 22,263 帧用于属性识别

  涵盖了广泛的多样性,包括对象、背景、光照、天气、遮挡、相机运动和无人机飞行姿态

数据集图片样例

遥感航拍影像25篇CVPR39个数据集

1-无法归类

[2]2020_Uzkent_Cite=43_Learning When and Where to Zoom With Deep Reinforcement Learning

强化学习判断什么场景需要使用高分辨率(懂要判断什么场景需要使用超分辨率——什么场景需要高分辨率,什么场景不需要呢?)

(下面这些数据集,有的图中的object很小分类不出来需要增加清晰度,有的图中的object很大不用增加清晰度也能看清)

(1) CIFAR10, (2) CIFAR100, (3) ImageNet(4) functional map of the world (fMoW)

CIFAR10,10个类别

遥感航拍影像25篇CVPR39个数据集

CIFAR100-100个类别分类

ImageNet-

可以做目标检测提供bounding boxes

20,000 categories

[3]2020_Lee_Cite_Cite=8_SIPSA-Net: Shift-Invariant Pan Sharpening with Moving Object Alignment for Satellite Imagery

Pan sharpening uses a higher-resolution panchromatic全色的 image (or raster band) to fuse with a lower-resolution multiband raster dataset

遥感航拍影像25篇CVPR39个数据集

使得那种在运动中拍摄的比较糊的图片变得锐化

右下角我们做的锐化以后最清晰的。

遥感航拍影像25篇CVPR39个数据集

WorldView-3

上面介绍过了

选场景的思路

(S1)最好是语义分割和目标检测,

(S2)哪一个能做出来的可能性最大,老师觉得从哪个切入是最好的.拉一个清单,三四个选项

(S3)这个场景数据集个数多,我用不同数据集都做做,看着工作量也挺大的

(S4)选能用的技术最多,最花哨、时髦的

(S5)从里面选一个应用上意义最大的,技术上能用花里胡哨技术的比如attention,比如图网络这类fancy的东西,

39个数据集(高空卫星照片+低空无人机照片)

iSAID

The Vaihingen dataset

The Potsdam dataset

Cityscapes

BDD100K

ADE20k

RoadTracer Dataset

Geo-parcel

WHU Dataset

center in the City of London

The 2019 IEEE GRSS Data Fusion Contest datase

USSOCOM Urban 3D dataset

The SpaceNet Buildings Dataset v2

SpaceNet Challenge

US3D

SN4

CVUSA

CVACT

WorldView-3

Sentinel-2 time series

the Dynamic Traffic Speeds (DTS) dataset

Cross-View Time (CVT) Dataset

SKU110KR Dataset

UAVVC

ShanghaiTech Dataset

WorldExpo10 Dataset

UCSD dataset

DOTA-v1.0

DOTA-v1.5

HRSC2016

NPS-Drones

FL-Drones

DTB70

UAVDT

UAV123@10fps

VisDrone2018-test-dev

DroneCrowd

A12-THOR

UAV-Human Dataset文章来源地址https://www.toymoban.com/news/detail-411782.html

到了这里,关于遥感航拍影像25篇CVPR39个数据集的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • PyTorch深度学习遥感影像地物分类与目标检测、分割及遥感影像问题深度学习优化实践技术应用

    我国高分辨率对地观测系统重大专项已全面启动,高空间、高光谱、高时间分辨率和宽地面覆盖于一体的全球天空地一体化立体对地观测网逐步形成,将成为保障国家安全的基础性和战略性资源。未来10年全球每天获取的观测数据将超过10PB,遥感大数据时代已然来临。随着小

    2024年02月10日
    浏览(63)
  • 【遥感专题系列】影像信息提取之——面向对象的影像分类技术

    “同物异谱,同谱异物”会对影像分类产生的影响,加上高分辨率影像的光谱信息不是很丰富,还有经常伴有光谱相互影响的现象,这对基于像素的分类方法提出了一种挑战,面向对象的影像分类技术可以一定程度减少上述影响。 本专题以ENVI中的面向对象的特征提取FX工具为

    2024年01月19日
    浏览(55)
  • (二)Landsat_5 TM 遥感影像波段合成真假彩色影像

    回顾以下Landsat系列卫星的发展史,可以发现Landsat_5卫星已经退役,作为世界上寿命最长的地球观测卫星,其在影像方面对人类的发展具有很深刻的意义。Landsat_5 TM共有7个波段,通过不同的波段组合,形成不同遥感图像,也就是常见的红绿蓝三通道影像立方体。地物对每一个

    2024年02月11日
    浏览(56)
  • 【学习笔记】遥感影像分类相关精度指标

    混淆矩阵是分类精度的评定指标。是一个用于表示分为某一类别的像元个数与地面检验为该类别数的比较阵列。 对检核分类精度的样区内所有的像元,统计其分类图中的类别与实际类别之间的混淆程度。 混淆矩阵中,对角线上元素为被正确分类的样本数目,非对角线上的元

    2024年01月22日
    浏览(64)
  • 基于python与GDAL获取遥感影像

    最近做项目,发现网上关于利用python与GDAL读取遥感影像数据的资料比较少。因此整理了一些,以方便自己学习。      1.首先确认自己电脑上安装好python版的GDAL库。这个会以后有时间慢慢整理。       2. 导入gdal库          from osgeo import gdal       3. 注册GDAL库   

    2023年04月25日
    浏览(51)
  • 通过Stable Diffusion生成虚假的遥感影像

    这两天玩了一下stable diffusion,是真的好玩! 然后我在想遥感有没有相关的生成模型,找了一下,还真找到了(https://github.com/xiaoyuan1996/Stable-Diffusion-for-Remote-Sensing-Image-Generation/tree/main)。 该模型的作者是空天院的 Zhiqiang yuan ,他提供了相关的训练代码、预测代码、已经训练好

    2024年01月24日
    浏览(242)
  • 日本樱岛火山喷发遥感卫星影像监测

    日本樱岛火山喷发监测        当地时间2024年1月9日15时许,位于日本九州地区鹿儿岛县的樱岛南岳山顶火山口,开始喷发,火山烟雾从火山口上升至空中1200米左右。目前,日本气象厅将樱岛的火山警戒级别维持在3级,限制民众入山。        火山喷发后,中国资源卫星应用

    2024年01月17日
    浏览(55)
  • 遥感卫星影像现拍,哪里想看拍哪里!

    我们为大家分享了查看实时卫星影像的方法。 虽然这个网站的卫星影像10分钟一更新,让世界尽收眼底,但分辨率却非常有限。 如果项目中需要更高清的卫星影像,且对时效性又有较高的要求,那么可以考虑用卫星专门拍摄。 光学卫星是利用可见光和红外线等电磁波段进行

    2024年01月19日
    浏览(56)
  • 【Python&RS】基于GDAL镶嵌拼接遥感影像

            没啥好说的,处理高分辨率影像时,数据高达几十G。用ENVI或者ArcGIS进行影像的拼接时,往往会出现未响应的情况。出现未响应的话,运气好等个一晚上可能会动一动,运气不好就等着强制关闭重做吧。         所以搞了一个Python进行拼接操作的代码,虽然速度不

    2024年02月02日
    浏览(46)
  • ArcGIS制作带蒙版的遥感影像地图

      这次文章我们来介绍一下,如何通过一个系统的步骤完成ArcGIS制作带蒙版的遥感影像地图。 1  添加行政区划数据 2  导出兴趣去乡镇矢量范围 3  添加遥感影像底图 4  制作蒙版 5  利用自动完成面制作蒙版 6  标注乡镇带晕渲文字 7  页面布局设置 8  插入指北针和标题等

    2024年02月14日
    浏览(40)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包