【电网异物检测硕士论文摘抄记录】电力巡检图像中基于深度学习的异物检测方法研究

这篇具有很好参考价值的文章主要介绍了【电网异物检测硕士论文摘抄记录】电力巡检图像中基于深度学习的异物检测方法研究。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

  • 根据国家电力行业发展报告统计,截止到 2018 年,全国电网 35 千伏及以上的输电线路回路长度达到 189 万千米,220 千伏及以上输电线路回路长度达73 万千米。截止到 2015年,根据国家电网公司的统计 330 千伏及以上输电线路故障跳闸总数中外力破坏作为主要原因的事故占到了 15.8%,而其中由线上异物引发的事故占到外力破坏的55.4%。特别是一些异物的人眼辨识度不高,在颜色、形状和大小上非常接近输电线上的金具,更容易使得工作人员漏检,进而引发电力事故,或者加长了异物处理的周期。电网公司的巡检工作主要依靠人工完成,需要大量人力物力,且实时性较差。 湖北工业大学,范亚雷

  • 通过网络进行特定样本的训练,使得计算机程序具有对某一类或某几类特征的高敏感度,进而替代人眼实现图像中某些指定目标的识别与定位。通过新型的巡检设备替代传统的人工徒步巡检方式,通过图像分类和检测技术来筛选并且定位架空输电线异物,从而保障电力系统的安全可靠平稳运行。输电线的断股、输电杆塔事故、绝缘子破裂、绝缘子掉串以及输电线异物等方向都可以归类作为输电线路关键部件故障的研究内容。

  • 提出的图像形态学方式识别和检测异物的方法,其核心思路都是根据附着异物的输电线的形态特征,例如:线路区域的灰度值、线路区域的形状、线路区域的宽度等,与正常输电线有所区别,采取合适的办法提取并判断这些高区分度特征是否符合设定值来判断异物的存在。但是显而易见,这类异物检测方式往往依赖于巡检图像背景与前景的分离结果,作者凭借对图像处理任务的认知理解和先验知识,通过图片的纹理、颜色和灰度值来设计分离算法,然后对提取出的输电线路区域进行特征计算,从而确定异物是否存在。其检测结果受前景提取算法参数设定和异物特征计算结果的影响很大,这就导致了算法在一定程度上缺少泛化能力和在复杂背景下检测异物的能力

  • 采用的深度学习模型各有不同,但共同特点是测试数据集中的图像都是默认存在异物的图像,这就相当于在进行目标检测之前先人为分类了图像。事实上,巡检所返回的大量图像中无异物的线路图像占了大多数,因此文献中的实验与真实应用的场景存在差距。

  • 2019 年,全国“两会”提出“三型两网,世界一流”的国家电网建设目标,其内涵是以建设枢纽型、平台型、共享型为特征,以坚强智能电网和泛在电力物联网为手段,打造世界一流能源互联网企业。用移动互联、人工智能等现代通信和信息技术对传统电力行业赋能。截止至 2019 年,南方电网已使用无人机作业超 50 万公里,已全面实现“机巡为主、人巡为辅”的协同巡检模式。目前,使用无人机进行线路巡检的主要挑战集中在自动驾驶、飞行时间和通信带宽等方面。

  • 卷积核中的值叫做权重,输入图像的每个位置是被同一个卷积核扫描的,即卷积的时候所用的权重是一样的。这样对于每一个卷积核来说,需要训练的权值参数与卷积核扫过的位置无关,需要调整的参数也就被限制在一个卷积核大小的数量级内。图像识别的一般流程如下:获取图像数据→数据预处理→提取特征→确定特征量并进行匹配→输出识别结果

  • 计算机视觉中,像素之间的相关性与像素之间的距离同样相关,可以理解为在图像中的某一块区域中,相关性强的像素间距离往往较近,相关性比较弱的像素间距离则较远。局部连接,即卷积层的节点仅仅与其前一层的部分节点相连接。在假设数量级为 1 0 5 10^5 105 的示例图像上,若采用全连接则最终的参数量级为 1 0 11 10^{11} 1011。而局部连接大大减少了参数的数量级,在10 × 10的卷积核上仅为 1 0 8 10^8 108 数量级。相比减少了 3 个数量级,使网络的计算速度更快。

  • 深度学习方法优势的体现需要大量的训练数据作为支撑,缺乏合适的数据大概率会导致网络的过拟合,严重的还会造成网络无法收敛。对个人构建的数据集来说,数据量一般是无法达到公开数据集千万级别数据量规模的,针对数据匮乏的问题,需要对已有数据进行处理,从而实现扩大数据量的目的。图片亮度可以通过增减图像通道R、G、B的值来调节大小,值越大亮度越高。

    • L = R + B + G 3 b r i = k L = k ∗ R + B + G 3 L=\frac{R+B+G}{3}\\ bri=kL=k*\frac{R+B+G}{3} L=3R+B+Gbri=kL=k3R+B+G

    • 其中,𝐿作为亮度变化系数,表示亮度的强弱。各通道按照一定规律统一增减即可改变图像的亮度。利用深度学习对摄像装置所采集的现场图像进行分析,执行目标检测任务,若发现威胁电网安全运行的隐患将及时通知工作人员。深度学习发挥其优势需要有效样本达到一定数量,包含隐患的真实样本较少,有些异物种类甚至没有合适的样本,往往不能满足深度学习算法的训练要求。扩充样本并不是简单的增加训练集的过程,训练集样本必须联系实际使用场景,才能够使训练所得模型的性能获得提升。盲目增加无关样本可能会使模型性能下降

  • 对于一个分类器来说,使用者更希望找到全部的分类目标,即TPR越高越好,但同时也不希望把分类目标以外的其他类别错分类,即FPR越低越好。综上可知,这两个指标存在着互相制约的关系。为了可以定量的分析一个分类器的好坏,引入曲线下面积(Area Under Curve, AUC)的概念,其被定义为ROC曲线下的面积。

  • 接受者操作特性(Receiver Operating Characteristic, ROC)曲线就是将不同筛选阈值下的假阳性率和查全率交点绘制在同一个坐标系内所得到的曲线。ROC曲线的横坐标为假阳性率(False Positive Rate, FPR)。纵坐标为分类查全率,又称作真阳性率(True Positive Rate, TPR)。 AUC的值越大,当前的分类算法就越有可能对正样本进行排序,然后再对负样本进行排序,从而实现更好的分类。

    • T P R = T P c T P c + F N c F P R = F P c T P c + T N c A U C = ∫ 0 1 T P R d ( F P R ) TPR=\frac{TP_c}{TP_c+FN_c}\\ FPR=\frac{FP_c}{TP_c+TN_c}\\ AUC=\int_0^1TPRd(FPR) TPR=TPc+FNcTPcFPR=TPc+TNcFPcAUC=01TPRd(FPR)

    • 其中,𝑇𝑃𝑐 表示分类样本中真阳性(True Positive),是分类器预测正确的正样本数。𝑇𝐹𝑐表示分类样本中真阴性(True Negative),是分类器预测正确的负样本数。𝐹𝑃𝑐表示分类样本中假阳性(False Positive),是分类器预测错误的负样本数。

  • 由于电力巡检任务的特殊性,输电线上异物的漏检危害比误检更大,因此本文侧重对分类器100%查全率指标的研究。本文选取InceptionV3-retrain模型作为输电线异物图像分类器的主要研究对象,其分类异物图像的总流程如下图所示。图中蓝色框的内容为算法的训练过程,本文通过训练集数据增强、修改网络结构和权重微调对模型进行训练。绿色框的内容为算法的测试流程。测试时,测试集中正常图像和异物图像共同作为分类器的输入,输出图像为全部的含有异物图像和部分分类错的正常图像。

    • 【电网异物检测硕士论文摘抄记录】电力巡检图像中基于深度学习的异物检测方法研究,电网异物检测,深度学习,电网异物检测,计算机视觉,智能赋能
  • 在实际的巡检应用中,巡检图像承载着更为直观、丰富的巡检线路信息。红外影像和雷达成像等技术受环境影响较大,比如在停电情况下或者周围环境中存在其他电磁干扰与干扰热源时,其呈现的图像无法让工作人员直接判断现场情况,从而拖延事故处理速度。计算机视觉的核心之一是图像分类,特征描述及检测是其运用的普遍方式,对于一些简单的图像分类这类传统方法可能是有效的,但由于实际情况非常复杂,传统的分类方法不堪重负。卷积神经网络在经过大量数据训练后特征提取能力得到加强,目前主流的图像分类模型都是基于这种卷积结构

  • 输电线上异物检测作为智能电网和无人巡检系统中的重要组成部分,对于减少人力资源的浪费、提高巡线效率以及降低安全风险具有重要意义。基于深度学习的图像分类和目标检测技术在近年来取得了巨大的突破,但是该技术如何在输电线异物检测任务上进行运用仍是一个值得探索和研究的问题。

  • yolo数据集标注格式主要是 U版本[yolov5]项目需要用到。标签使用txt文本进行保存。yolo标注格式如下所示:

    • <object-class> <x> <y> <width> <height>
      # <object-class>:对象的标签索引
      # x,y:目标的中心坐标,相对于图片的H和W做归一化。即x/W,y/H。
      # width,height:目标(bbox)的宽和高,相对于图像的H和W做归一化。
      
  • VOC数据集由五个部分构成:JPEGImages,Annotations,ImageSets,SegmentationClass以及SegmentationObject.

    • JPEGImages:存放的是训练与测试的所有图片。

    • Annotations:里面存放的是每张图片打完标签所对应的XML文件。

    • ImageSets:ImageSets文件夹下本次讨论的只有Main文件夹,此文件夹中存放的主要又有四个文本文件test.txt、train.txt、trainval.txt、val.txt, 其中分别存放的是测试集图片的文件名、训练集图片的文件名、训练验证集图片的文件名、验证集图片的文件名。

    • SegmentationClass与SegmentationObject:存放的都是图片,且都是图像分割结果图,对目标检测任务来说没有用。class segmentation 标注出每一个像素的类别

    • object segmentation 标注出每一个像素属于哪一个物体。

  • voc数据集的标签主要以xml文件形式进行存放。xml文件的标注格式如下:

    • <annotation>
        <folder>17</folder> # 图片所处文件夹
        <filename>77258.bmp</filename> # 图片名
        <path>~/frcnn-image/61/ADAS/image/frcnn-image/17/77258.bmp</path>
        <source>  #图片来源相关信息
          <database>Unknown</database>  
        </source>
        <size> #图片尺寸
          <width>640</width>
          <height>480</height>
          <depth>3</depth>
        </size>
        <segmented>0</segmented>  #是否有分割label
        <object> 包含的物体
          <name>car</name>  #物体类别
          <pose>Unspecified</pose>  #物体的姿态
          <truncated>0</truncated>  #物体是否被部分遮挡(>15%)
          <difficult>0</difficult>  #是否为难以辨识的物体, 主要指要结体背景才能判断出类别的物体。虽有标注, 但一般忽略这类物体
          <bndbox>  #物体的bound box
            <xmin>2</xmin>     #左
            <ymin>156</ymin>   #上
            <xmax>111</xmax>   #右
            <ymax>259</ymax>   #下
          </bndbox>
        </object>
      </annotation>
      
  • 自制VOC数据集,按照VOC2007的数据集格式要求,分别创建文件夹VOCdevkitVOC2007AnnotationsImageSetsMainJPEGImages,它们的层级结构如下所示

    • └─VOCdevkit
          └─VOC2007
              ├─Annotations
              ├─ImageSets
              │  └─Main
              └─JPEGImages
      
    • 其中,Annotations用来存放xml标注文件,JPEGImages用来存放图片文件,而ImageSets/Main存放几个txt文本文件,文件的内容是训练集、验证集和测试集中图片的名称(去掉扩展名),这几个文本文件是需要人为生成的。使用开源工具 [labelImg]对图片进行标注,导出的数据集格式为PASCAL VOC,待数据标注完成后,可以看到文件夹是下面这个样子的,标注文件xml和图片文件混在了一起。将images文件夹中的图片文件拷贝到JPEGImages文件夹中,将images文件中的xml标注文件拷贝到Annotations文件夹中。

    • 接下来新建一个脚本,把它放在VOCdevkit/VOC2007文件夹下

    • import os
      import random
      # 训练集和验证集的比例分配
      trainval_percent = 0.1
      train_percent = 0.9
      # 标注文件的路径
      xmlfilepath = 'Annotations'
      # 生成的txt文件存放路径
      txtsavepath = 'ImageSets\Main'
      total_xml = os.listdir(xmlfilepath)
      num = len(total_xml)
      list = range(num)
      tv = int(num * trainval_percent)
      tr = int(tv * train_percent)
      trainval = random.sample(list, tv)
      train = random.sample(trainval, tr)
      ftrainval = open('ImageSets/Main/trainval.txt', 'w')
      ftest = open('ImageSets/Main/test.txt', 'w')
      ftrain = open('ImageSets/Main/train.txt', 'w')
      fval = open('ImageSets/Main/val.txt', 'w')
      for i in list:
          name = total_xml[i][:-4] + '\n'
          if i in trainval:
              ftrainval.write(name)
              if i in train:
                  ftest.write(name)
              else:
                  fval.write(name)
          else:
              ftrain.write(name)
      
      ftrainval.close()
      ftrain.close()
      fval.close()
      ftest.close()
      
    • 将需要训练、验证、测试的图片绝对路径写到对应的txt文件中

    • import xml.etree.ElementTree as ET
      import pickle
      import os
      from os import listdir, getcwd
      from os.path import join
      # 原始脚本中包含了VOC2012,这里,把它删除
      # sets=[('2012', 'train'), ('2012', 'val'), ('2007', 'train'), ('2007', 'val'), ('2007', 'test')]
      sets=[('2007', 'train'), ('2007', 'val'), ('2007', 'test')]
      # classes也需要根据自己的实际情况修改
      # classes = ["aeroplane", "bicycle", "bird", "boat", "bottle", "bus", "car", "cat", "chair", "cow", "diningtable", "dog", "horse", "motorbike", "person", "pottedplant", "sheep", "sofa", "train", "tvmonitor"]
      classes = ["class_one"]
      def convert(size, box):
          dw = 1./size[0]
          dh = 1./size[1]
          x = (box[0] + box[1])/2.0
          y = (box[2] + box[3])/2.0
          w = box[1] - box[0]
          h = box[3] - box[2]
          x = x*dw
          w = w*dw
          y = y*dh
          h = h*dh
          return (x,y,w,h)
      def convert_annotation(year, image_id):
          in_file = open('VOCdevkit/VOC%s/Annotations/%s.xml'%(year, image_id))
          out_file = open('VOCdevkit/VOC%s/labels/%s.txt'%(year, image_id), 'w')
          tree=ET.parse(in_file)
          root = tree.getroot()
          size = root.find('size')
          w = int(size.find('width').text)
          h = int(size.find('height').text)
          for obj in root.iter('object'):
              difficult = obj.find('difficult').text
              cls = obj.find('name').text
              if cls not in classes or int(difficult) == 1:
                  continue
              cls_id = classes.index(cls)
              xmlbox = obj.find('bndbox')
              b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text), float(xmlbox.find('ymax').text))
              bb = convert((w,h), b)
              out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')
      wd = getcwd()
      for year, image_set in sets:
          if not os.path.exists('VOCdevkit/VOC%s/labels/'%(year)):
              os.makedirs('VOCdevkit/VOC%s/labels/'%(year))
          image_ids = open('VOCdevkit/VOC%s/ImageSets/Main/%s.txt'%(year, image_set)).read().strip().split()
          list_file = open('%s_%s.txt'%(year, image_set), 'w')
          for image_id in image_ids:
              list_file.write('%s/VOCdevkit/VOC%s/JPEGImages/%s.jpg\n'%(wd, year, image_id))
              convert_annotation(year, image_id)
          list_file.close()
      
  • 执行上述脚本后,在VOCdevkit同级目录就会生成2007_train.txt2007_val.txt2007_test.txt

  • 准备转换脚本voc2yolo.py,部分注释写在代码里.(将所有图片存放在images文件夹,xml标注文件放在Annotations文件夹,然后创建一个文件夹labels)

  • import xml.etree.ElementTree as ET
    import pickle
    import os
    from os import listdir, getcwd
    from os.path import join
    # 根据自己情况修改
    classes = ["class_one"]
    def convert(size, box):
        dw = 1. / size[0]
        dh = 1. / size[1]
        x = (box[0] + box[1]) / 2.0
        y = (box[2] + box[3]) / 2.0
        w = box[1] - box[0]
        h = box[3] - box[2]
        x = x * dw
        w = w * dw
        y = y * dh
        h = h * dh
        return (x, y, w, h)
    def convert_annotation(image_id):
        if not os.path.exists('Annotations/%s.xml' % (image_id)):
            return
        in_file = open('annotations/%s.xml' % (image_id))
        out_file = open('labels/%s.txt' % (image_id), 'w')
        tree = ET.parse(in_file)
        root = tree.getroot()
        size = root.find('size')
        w = int(size.find('width').text)
        h = int(size.find('height').text)
        for obj in root.iter('object'):
            cls = obj.find('name').text
            if cls not in classes:
                continue
            cls_id = classes.index(cls)
            xmlbox = obj.find('bndbox')
            b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
                 float(xmlbox.find('ymax').text))
            bb = convert((w, h), b)
            out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')
    for image in os.listdir('images'):
        # 这里需要根据图片情况进行对应修改。比如图片名称是123.456.jpg,这里就会出错了。一般来讲,如果图片格式固定,如全都是jpg,那就image_id=image[:-4]处理就好了。总之,情况比较多,自己看着办,哈哈!
        image_id = image.split('.')[0]
        convert_annotation(image_id)
    
  • 执行上述脚本后,labels文件夹就会生成txt格式的标注文件了,yolov5训练时使用的数据集结构是这样的

  • ├─test
    │  ├─images
    │  └─labels
    ├─train
    │  ├─images
    │  └─labels
    └─valid
        ├─images
        └─labels
    
  • 因此,还需要将图片文件和对应的txt标签文件再进行一次划分,首先创建外层的trainvalidtest文件夹,然后在每个文件夹底下都分别创建imageslabels文件夹.接下来,可以使用下面的脚本,将图片和标签文件按照比例进行划分

  • import os
    import shutil
    import random
    # 训练集、验证集和测试集的比例分配
    test_percent = 0.1
    valid_percent = 0.2
    train_percent = 0.7
    # 标注文件的路径
    image_path = 'images'
    label_path = 'labels'
    images_files_list = os.listdir(image_path)
    labels_files_list = os.listdir(label_path)
    print('images files: {}'.format(images_files_list))
    print('labels files: {}'.format(labels_files_list))
    total_num = len(images_files_list)
    print('total_num: {}'.format(total_num))
    test_num = int(total_num * test_percent)
    valid_num = int(total_num * valid_percent)
    train_num = int(total_num * train_percent)
    # 对应文件的索引
    test_image_index = random.sample(range(total_num), test_num)
    valid_image_index = random.sample(range(total_num), valid_num) 
    train_image_index = random.sample(range(total_num), train_num)
    for i in range(total_num):
        print('src image: {}, i={}'.format(images_files_list[i], i))
        if i in test_image_index:
            # 将图片和标签文件拷贝到对应文件夹下
            shutil.copyfile('images/{}'.format(images_files_list[i]), 'test/images/{}'.format(images_files_list[i]))
            shutil.copyfile('labels/{}'.format(labels_files_list[i]), 'test/labels/{}'.format(labels_files_list[i]))
        elif i in valid_image_index:
            shutil.copyfile('images/{}'.format(images_files_list[i]), 'valid/images/{}'.format(images_files_list[i]))
            shutil.copyfile('labels/{}'.format(labels_files_list[i]), 'valid/labels/{}'.format(labels_files_list[i]))
        else:
            shutil.copyfile('images/{}'.format(images_files_list[i]), 'train/images/{}'.format(images_files_list[i]))
            shutil.copyfile('labels/{}'.format(labels_files_list[i]), 'train/labels/{}'.format(labels_files_list[i]))
    
  • 执行代码后,可以看到类似文件层级结构

  • ─test
    │  ├─images
    │  │      aaa.jpg
    │  │      bbb.jpg
    │  │
    │  └─labels
    │          aaa.txt
    │          bbb.txt
    │       
    ├─train
    │  ├─images
    │  │      xxx.jpg
    │  │
    │  └─labels
    │          xxx.txt
    │
    └─valid
        ├─images
        │      111.jpg
        │
        └─labels
                111.txt
    
  • 如果拿到了txt的标注,但是需要使用VOC,也需要进行转换。看下面这个脚本,注释写在代码中文章来源地址https://www.toymoban.com/news/detail-613856.html

  • import os
    import xml.etree.ElementTree as ET
    from PIL import Image
    import numpy as np
    # 图片文件夹,后面的/不能省
    img_path = 'images/'
    # txt文件夹,后面的/不能省
    labels_path = 'labels/'
    # xml存放的文件夹,后面的/不能省
    annotations_path = 'Annotations/'
    labels = os.listdir(labels_path)
    # 类别
    classes = ["class_one"]
    # 图片的高度、宽度、深度
    sh = sw = sd = 0
    def write_xml(imgname, sw, sh, sd, filepath, labeldicts):
        '''
        imgname: 没有扩展名的图片名称
        '''
        # 创建Annotation根节点
        root = ET.Element('Annotation')
        # 创建filename子节点,无扩展名                 
        ET.SubElement(root, 'filename').text = str(imgname)        
        # 创建size子节点 
        sizes = ET.SubElement(root,'size')                                      
        ET.SubElement(sizes, 'width').text = str(sw)
        ET.SubElement(sizes, 'height').text = str(sh)
        ET.SubElement(sizes, 'depth').text = str(sd) 
        for labeldict in labeldicts:
            objects = ET.SubElement(root, 'object')                 
            ET.SubElement(objects, 'name').text = labeldict['name']
            ET.SubElement(objects, 'pose').text = 'Unspecified'
            ET.SubElement(objects, 'truncated').text = '0'
            ET.SubElement(objects, 'difficult').text = '0'
            bndbox = ET.SubElement(objects,'bndbox')
            ET.SubElement(bndbox, 'xmin').text = str(int(labeldict['xmin']))
            ET.SubElement(bndbox, 'ymin').text = str(int(labeldict['ymin']))
            ET.SubElement(bndbox, 'xmax').text = str(int(labeldict['xmax']))
            ET.SubElement(bndbox, 'ymax').text = str(int(labeldict['ymax']))
        tree = ET.ElementTree(root)
        tree.write(filepath, encoding='utf-8')
    for label in labels:
        with open(labels_path + label, 'r') as f:
            img_id = os.path.splitext(label)[0]
            contents = f.readlines()
            labeldicts = []
            for content in contents:
                # 这里要看图片格式了,这里是jpg,注意修改
                img = np.array(Image.open(img_path + label.strip('.txt') + '.jpg'))
                # 图片的高度和宽度
                sh, sw, sd = img.shape[0], img.shape[1], img.shape[2]
                content = content.strip('\n').split()
                x = float(content[1])*sw
                y = float(content[2])*sh
                w = float(content[3])*sw
                h = float(content[4])*sh
                # 坐标的转换,x_center y_center width height -> xmin ymin xmax ymax
                new_dict = {'name': classes[int(content[0])],
                            'difficult': '0',
                            'xmin': x+1-w/2,                     
                            'ymin': y+1-h/2,
                            'xmax': x+1+w/2,
                            'ymax': y+1+h/2
                            }
                labeldicts.append(new_dict)
            write_xml(img_id, sw, sh, sd, annotations_path + label.strip('.txt') + '.xml', labeldicts)
    

到了这里,关于【电网异物检测硕士论文摘抄记录】电力巡检图像中基于深度学习的异物检测方法研究的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 异常检测相关论文记录

    将所考虑的算法在所有数据集上的相对性能进行 可视化和聚类 ,我们确定了两个 明确的聚类 :一个具有“ 局部 ”数据集,另一个具有“ 全局 ”数据集。 在局部数据集上,kNN算法名列前茅。在全局数据集上,EIF(扩展隔离林)算法的性能最好。 所陈述的先前论文研究中发现表

    2024年02月05日
    浏览(21)
  • 高创新!EI论文复现+改进:聚合温度调控策略的综合能源系统/微电网/虚拟电厂多目标优化调度程序代码!

    程序考虑供热的热惯性,并根据室内供热效果进行柔性供热,发挥热温度负荷的“储能”能力;针对普适性参数的室内空调进行集群研究,深入剖析温度设定值调整导致负荷波动的机理,并提出一种新的温度调整方法,平抑负荷波动;利用P2G装置实现电-气网络间能源双向协调

    2024年02月01日
    浏览(42)
  • 智慧矿山:AI算法在带式运输机中的异物识别应用

    随着现代农业和工业的发展,带式运输机在各种生产作业中发挥着越来越重要的作用。然而,在带式运输机运行过程中,可能会混入各种异物,这些异物的存在可能会对运输过程和设备本身造成损害。为了解决这一问题,本文将介绍一种基于AI算法的异物识别视频分析方法。

    2024年02月06日
    浏览(33)
  • 《深度工作》一书摘抄

    深度工作非常重要,如果你达不到足够专注,你就解决不了你行业内的那些难题,所以要成为高手,得养成深度工作的习惯 自己总结进入深度工作最好的状态就是断网,远离一切网络相关,手机仍到一个你够不着的地方的 在这个网络发展的时代,我们可以随意拿到各种学科

    2024年02月03日
    浏览(33)
  • 使用opencv实现单目标定相机标定(摘抄)

    使用opencv实现单目标定 相机标定的目的 :获取摄像机的内参和外参矩阵(同时也会得到每一幅标定图像的选择和平移矩阵),内参和外参系数可以对之后相机拍摄的图像就进行矫正,得到畸变相对很小的图像。 相机标定的输入 :标定图像上所有内角点的图像坐标,标定板图

    2024年02月11日
    浏览(40)
  • k8s的一些关键信息(归类摘抄,非提炼)

    当用户提交一个 Deployment 对象到 Kubernetes 集群时,控制平面的 API Server 接收到该请求,并将其转发给 Controller Manager。Controller Manager 中的 Deployment Controller 监听到该请求,并根据用户定义的配置信息,创建相应的 ReplicaSet 对象。Scheduler 负责将该 ReplicaSet 中的 Pod 调度到集群中的

    2024年02月19日
    浏览(19)
  • 后端接口如何提高性能?从MySQL、ES、HBASE等技术一起探讨下!(摘抄)

    谢邀,利益相关。 大多数互联网应用场景都是读多写少,业务逻辑更多分布在写上。对读的要求大概就是要快。那么都有什么原因会导致我们完成一次出色的慢查询呢? 1.1 索引 在数据量不是很大时,大多慢查询可以用索引解决,大多慢查询也因为索引不合理而产生。 MySQ

    2024年04月26日
    浏览(32)
  • 金融硕士|人民大学与加拿大女王大学在职金融硕士

    项目学制一年,为在职非脱产学习,周末授课。学习时间紧凑,能快速提升本科学历,可以兼顾工作和学习,双硕士学位学习,完成所有学分即可获得加拿大女王大学金融硕士学位证书(Master of Finance)。 l  国内唯一授权引进的认证项目 Ø 此学位是经教育部批准认可的中外

    2024年02月12日
    浏览(33)
  • 异常检测-缺陷检测-论文精读PaDiM

    我们提出了一个新的 Patch 分布建模框架,在单类学习的设置下,PaDiM 同时检测和定位图像中的异常。PaDiM 利用一个预先训练好的卷积神经网络 (CNN) 进行 patch 嵌入,利用多元高斯分布得到正常类的概率表示。它还利用了 CNN 的不同语义级别之间的相关性来更好地定位异常。P

    2024年02月10日
    浏览(31)
  • 【论文阅读】(20230410-20230416)论文阅读简单记录和汇总

    2023/04/09:很久没有动笔写东西了,这两周就要被抓着汇报了,痛苦啊呜呜呜呜呜 (CVPR 2023): Temporal Interpolation Is All You Need for Dynamic Neural Radiance Fields (ICCV 2021):Video Autoencoder: self-supervised disentanglement of static 3D structure and motion (CVPR 2023):DINER: Disorder-Invariant Implicit Neural Representat

    2024年02月12日
    浏览(29)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包