VGG16详细原理(含tensorflow版源码)

这篇具有很好参考价值的文章主要介绍了VGG16详细原理(含tensorflow版源码)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

VGG16原理

        VGG16是一个经典的卷积神经网络模型,由牛津大学计算机视觉组(Visual Geometry Group)提出,用于参加2014年的ImageNet图像分类比赛。VGG16的名称来源于网络中包含的16个卷积层,其基本结构如下:

  • 输入层:接收大小为224x224的RGB图像。
  • 卷积层:共13个卷积层,每个卷积层使用3x3的卷积核和ReLU激活函数,提取图像的局部特征。
  • 池化层:共5个池化层,每个池化层使用2x2的池化核和步长2,减小特征图的大小。
  • 全连接层:包含2个全连接层,每个全连接层包含4096个神经元,用于分类输出。
  • 输出层:包含一个大小为1000的全连接层,使用softmax激活函数,生成1000个类别的概率分布。

VGG16详细原理(含tensorflow版源码)

 VGG16详细原理(含tensorflow版源码)

        VGG16的主要特点是网络结构比较深,且卷积层和池化层的数量都比较多,使得网络可以学习到更加高层次的抽象特征。此外,VGG16的卷积层都采用3x3的卷积核,这样可以保证在不增加计算量的情况下,增加了网络的深度和宽度,提高了特征提取的效率和准确性。

        在训练过程中,VGG16一般采用基于随机梯度下降(Stochastic Gradient Descent,SGD)的反向传播算法,通过最小化交叉熵损失函数来优化模型参数。在训练过程中,可以使用数据增强、正则化、dropout等技术来提高模型的泛化能力和鲁棒性。

        总的来说,VGG16是一个非常经典和有效的卷积神经网络模型,具有良好的特征提取和分类能力,可以应用于图像分类、目标检测等计算机视觉任务。

VGG16源码(tensorflow版)

import tensorflow as tf
from tensorflow.keras import optimizers,losses,models,datasets,Sequential
from tensorflow.keras.layers import Dense,Conv2D,BatchNormalization,MaxPooling2D,Flatten


class vgg16(models.Model):
    def __init__(self):
        super(vgg16, self).__init__()
        self.model = models.Sequential([
            Conv2D(filters=64,kernel_size=(3,3),padding='same',activation='relu'),
            Conv2D(filters=64,kernel_size=(3,3),padding='same',activation='relu'),
            BatchNormalization(),
            MaxPooling2D(),
            Conv2D(filters=128,kernel_size = (3,3),padding='same',activation='relu'),
            Conv2D(filters=128,kernel_size = (3,3),padding='same',activation='relu'),
            BatchNormalization(),
            MaxPooling2D(),
            Conv2D(filters=256, kernel_size=(3, 3),padding='same', activation='relu'),
            Conv2D(filters=256, kernel_size=(3, 3),padding='same', activation='relu'),
            Conv2D(filters=256, kernel_size=(3, 3),padding='same', activation='relu'),
            BatchNormalization(),
            MaxPooling2D(),
            Conv2D(filters=512, kernel_size=(3, 3),padding='same', activation='relu'),
            Conv2D(filters=512, kernel_size=(3, 3), padding='same',activation='relu'),
            Conv2D(filters=512, kernel_size=(3, 3), padding='same',activation='relu'),
            BatchNormalization(),
            MaxPooling2D(),
            Conv2D(filters=512, kernel_size=(3, 3), padding='same',activation='relu'),
            Conv2D(filters=512, kernel_size=(3, 3),padding='same', activation='relu'),
            Conv2D(filters=512, kernel_size=(3, 3), padding='same',activation='relu'),
            BatchNormalization(),
            MaxPooling2D(),
            Flatten(),
            Dense(512,activation='relu'),
            Dense(256,activation='relu'),
            Dense(10,activation='softmax')
        ])

    def call(self, x, training=None, mask=None):
        x = self.model(x)
        return x


def main():
    (train_x,train_y),(test_x,test_y) = datasets.cifar10.load_data()
    train_x = train_x.reshape(-1,32,32,3) / 255.0
    test_x = test_x.reshape(-1,32,32,3) / 255.0

    model = vgg16()

    # model.build((None,32,32,3))
    # model.summary() 不使用类写VGG的话,就不报错,使用了类写VGG就报错,我也很无奈

    model.compile(optimizer=optimizers.Adam(0.01),
                  loss = losses.SparseCategoricalCrossentropy(),
                  metrics=['accuracy'])
    model.fit(train_x,train_y,epochs=10,batch_size=128)

    score = model.evaluate(test_x,test_y,batch_size=50)

    print('loss:',score[0])
    print('acc:',score[1])
    pass


if __name__ == '__main__':
    main()

训练10个epoch的效果

VGG16详细原理(含tensorflow版源码)文章来源地址https://www.toymoban.com/news/detail-454224.html

到了这里,关于VGG16详细原理(含tensorflow版源码)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • vgg16-pytorch

    基于pytorch实现VGG16模型 刚听完土哥的入门pytorch,试着写一个不完善的vgg16 VGG16具体的架构: VGG16模型构建: 卷积池化后尺寸计算公式: 引入库: dilation默认为1,计算第一个卷积的步长和填充: 图片为3通道,输出后维64通道,卷积核为3x3,第一个卷积层为: 在第一个池化这里

    2024年02月16日
    浏览(37)
  • 深度学习——VGG16模型详解

    1、网络结构 VGG16模型很好的适用于分类和定位任务,其名称来自牛津大学几何组(Visual Geometry Group)的缩写。 根据卷积核的大小核卷积层数,VGG共有6种配置,分别为A、A-LRN、B、C、D、E,其中D和E两种是最为常用的VGG16和VGG19。 介绍结构图: conv3-64 :是指第三层卷积后维度变

    2024年01月16日
    浏览(43)
  • 经典卷积神经网络——VGG16

    我们都知道Alexnet是卷积神经网络的开山之作,但是由于卷积核太大,移动步长大,无填充,所以14年提出的VGG网络解决了这一问题 VGG网络由牛津大学在2014年ImageNet挑战赛本地和分类追踪分别获得了第一名和第二名。研究卷积网络深度对其影响在大规模图像识别设置中的准确性

    2024年02月03日
    浏览(66)
  • 深度学习12. CNN经典网络 VGG16

    VGG(Visual Geometry Group)是一个视觉几何组在2014年提出的深度卷积神经网络架构。 VGG在2014年ImageNet图像分类竞赛亚军,定位竞赛冠军;VGG网络采用连续的小卷积核(3x3)和池化层构建深度神经网络,网络深度可以达到16层或19层,其中VGG16和VGG19最为著名。 VGG16和VGG19网络架构非

    2023年04月09日
    浏览(36)
  • pytorch实战3:基于pytorch复现VGG16

    前言 ​ 最近在看经典的卷积网络架构,打算自己尝试复现一下,在此系列文章中,会参考很多文章,有些已经忘记了出处,所以就不贴链接了,希望大家理解。 ​ 完整的代码在最后。 本系列必须的基础 ​ python基础知识、CNN原理知识、pytorch基础知识 本系列的目的 ​ 一是

    2024年02月08日
    浏览(47)
  • 深度学习卷积神经网络CNN之 VGGNet模型主vgg16和vgg19网络模型详解说明(理论篇)

    1.VGG背景 2. VGGNet模型结构 3. 特点(创新、优缺点及新知识点)    VGGNet是2014年ILSVRC(ImageNet Large Scale Visual Recognition Challenge 大规模视觉识别挑战赛 )竞赛的第二名,解决ImageNet中的 1000类图像分类和定位问题 ,第一名是GoogLeNet。    VGG全称是Visual Geometry Group,因为是由O

    2024年02月03日
    浏览(39)
  • 基于FPGA的VGG16卷积神经网络加速器

    文章搬运自本人知乎 VGG在2014年由牛津大学Visual GeometryGroup提出,获得该年lmageNet竞赛中Localization Task(定位任务)第一名和 Classification Task (分类任务)第二名。与AlexNet相比,VGG使用了3个3x3卷积核来代替7x7卷积核,使用了2个3x3卷积核来代替5x5卷积核,从而在保证具有相同感知野的

    2024年02月06日
    浏览(41)
  • 计算模型的GFLOPs和参数量 & 举例VGG16和DETR

    近期忙于写论文,分享一下论文中表格数据的计算方法。 目录 一、FLOPS、FLOPs和GFLOPs的概念 二、计算VGG16的GFLOPs和参数量 三、计算DETR的GFLOPs和参数量 四、整理数据表格 FLOPS: 注意S是大写,是  “每秒所执行的浮点运算次数” (floating-point operations per second)的缩写。它常被

    2023年04月09日
    浏览(35)
  • 【卷积神经网络】经典网络之 LeNet-5, AlexNet 与 VGG-16

    随着计算机硬件的升级与性能的提高,运算量已不再是阻碍深度学习发展的难题。卷积神经网络(Convolution Neural Network,CNN)是深度学习中一项代表性的工作,其雏形是 1998 年 LeCun 提出的 LeNet-5 模型。如今,卷积神经网络已被广泛应用于计算机视觉领域。本文主要介绍卷积神

    2024年02月11日
    浏览(41)
  • 语义分割 | 基于 VGG16 预训练网络和 Segnet 架构实现迁移学习

    Hi,大家好,我是源于花海。 本文主要使用数据标注工具 Labelme 对猫(cat)和狗(dog)这两种训练样本进行标注,使用预训练模型 VGG16 作为卷积基,并在其之上添加了全连接层。基于标注样本的信息和预训练模型的特征提取能力以及 Segnet 架构,训练自己构建的 语义分割 网

    2024年01月25日
    浏览(52)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包