python深度学习【transforms所有用法介绍】

这篇具有很好参考价值的文章主要介绍了python深度学习【transforms所有用法介绍】。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

  1. 裁剪——Crop 中心裁剪:transforms.CenterCrop
  2. 随机裁剪:transforms.RandomCrop
  3. 随机长宽比裁剪:transforms.RandomResizedCrop
  4. 上下左右中心裁剪:transforms.FiveCrop
  5. 上下左右中心裁剪后翻转,transforms.TenCrop
  6. 翻转和旋转——Flip and Rotation
  7. 依概率p水平翻转:transforms.RandomHorizontalFlip(p=0.5)
  8. 依概率p垂直翻转:transforms.RandomVerticalFlip(p=0.5)
  9. 随机旋转:transforms.RandomRotation
  10. 图像变换 resize:transforms.Resize
  11. 标准化:transforms.Normalize
  12. 转为tensor,并归一化至[0-1]:transforms.ToTensor
  13. 填充:transforms.Pad
  14. 修改亮度、对比度和饱和度:transforms.ColorJitter
  15. 转灰度图:transforms.Grayscale
  16. 线性变换:transforms.LinearTransformation()
  17. 仿射变换:transforms.RandomAffine
  18. 依概率p转为灰度图:transforms.RandomGrayscale
  19. 将数据转换为PILImage:transforms.ToPILImage
  20. transforms.Lambda:Apply a user-defined lambda as a transform.
  21. 对transforms操作,使数据增强更灵活
  22. transforms.RandomChoice(transforms), 从给定的一系列transforms中选一个进行操作 transforms.RandomApply(transforms, p=0.5),给一个transform加上概率,依概率进行操作 transforms.RandomOrder,将transforms中的操作随机打乱
    一、 裁剪——Crop
    1.随机裁剪:transforms.RandomCrop
    class torchvision.transforms.RandomCrop(size, padding=None, pad_if_needed=False, fill=0, padding_mode=‘constant’) 功能:依据给定的size随机裁剪 参数:
    size- (sequence or int),若为sequence,则为(h,w),
    若为int,则(size,size) padding-(sequence or int, optional),
    此参数是设置填充多少个pixel。
    当为int时,图像上下左右均填充int个,例如padding=4,则上下左右均填充4个pixel,若为3232,则会变成4040。
    当为sequence时,若有2个数,则第一个数表示左右扩充多少,第二个数表示上下的。
    当有4个数时,则为左,上,右,下。 fill- (int or tuple) 填充的值是什么(仅当填充模式为constant时有用)。
    int时,各通道均填充该值,当长度为3的tuple时,表示RGB通道需要填充的值。 padding_mode- 填充模式,这里提供了4种填充模式,
    1.constant,常量。
    2.edge 按照图片边缘的像素值来填充。
    3.reflect,暂不了解。
    4. symmetric,暂不了解。
    2.中心裁剪:transforms.CenterCrop
    class torchvision.transforms.CenterCrop(size)
    功能:依据给定的size从中心裁剪
    参数:
    size- (sequence or int),
    若为sequence,则为(h,w),
    若为int,则(size,size)
    3.随机长宽比裁剪 transforms.RandomResizedCrop
    class torchvision.transforms.RandomResizedCrop(size, scale=(0.08, 1.0), ratio=(0.75, 1.3333333333333333), interpolation=2)
    功能:随机大小,随机长宽比裁剪原始图片,最后将图片resize到设定好的size
    参数: size- 输出的分辨率
    scale- 随机crop的大小区间,如scale=(0.08, 1.0),表示随机crop出来的图片会在的0.08倍至1倍之间。
    ratio- 随机长宽比设置 interpolation- 插值的方法,默认为双线性插值(PIL.Image.BILINEAR)
    4.上下左右中心裁剪:transforms.FiveCrop
    class torchvision.transforms.FiveCrop(size)
    功能:对图片进行上下左右以及中心裁剪,获得5张图片,返回一个4D-tensor 参数: size- (sequence or int),
    若为sequence,则为(h,w),若为int,则(size,size)
    5.上下左右中心裁剪后翻转: transforms.TenCrop
    class torchvision.transforms.TenCrop(size, vertical_flip=False)
    功能:对图片进行上下左右以及中心裁剪,然后全部翻转(水平或者垂直),获得10张图片,返回一个4D-tensor。
    参数: size- (sequence or int),
    若为sequence,则为(h,w),
    若为int,则(size,size) vertical_flip (bool) - 是否垂直翻转,默认为flase,即默认为水平翻转
    二、翻转和旋转——Flip and Rotation
    6.依概率p水平翻转transforms.RandomHorizontalFlip
    class torchvision.transforms.RandomHorizontalFlip(p=0.5) 功能:依据概率p对PIL图片进行水平翻转 参数: p- 概率,默认值为0.5
    7.依概率p垂直翻转transforms.RandomVerticalFlip
    class torchvision.transforms.RandomVerticalFlip(p=0.5) 功能:依据概率p对PIL图片进行垂直翻转 参数: p- 概率,默认值为0.5
    8.随机旋转:transforms.RandomRotation
    class torchvision.transforms.RandomRotation(degrees, resample=False, expand=False, center=None) 功能:依degrees随机旋转一定角度 参数: degress- (sequence or float or int) ,若为单个数,如 30,则表示在(-30,+30)之间随机旋转 若为sequence,如(30,60),则表示在30-60度之间随机旋转 resample- 重采样方法选择,可选 PIL.Image.NEAREST, PIL.Image.BILINEAR, PIL.Image.BICUBIC,默认为最近邻 expand- ? center- 可选为中心旋转还是左上角旋转
    三、图像变换
    9.resize:transforms.Resize
    class torchvision.transforms.Resize(size, interpolation=2) 功能:重置图像分辨率 参数: size- If size is an int, if height > width, then image will be rescaled to (size * height / width, size),所以建议size设定为h*w interpolation- 插值方法选择,默认为PIL.Image.BILINEAR
    10.标准化:transforms.Normalize
    class torchvision.transforms.Normalize(mean, std) 功能:对数据按通道进行标准化,即先减均值,再除以标准差,注意是 hwc
    11.转为tensor:transforms.ToTensor
    class torchvision.transforms.ToTensor 功能:将PIL Image或者 ndarray 转换为tensor,并且归一化至[0-1] 注意事项:归一化至[0-1]是直接除以255,若自己的ndarray数据尺度有变化,则需要自行修改。
    12.填充:transforms.Pad
    class torchvision.transforms.Pad(padding, fill=0, padding_mode=‘constant’) 功能:对图像进行填充 参数: padding-(sequence or int, optional),此参数是设置填充多少个pixel。 当为int时,图像上下左右均填充int个,例如padding=4,则上下左右均填充4个pixel,若为3232,则会变成4040。 当为sequence时,若有2个数,则第一个数表示左右扩充多少,第二个数表示上下的。当有4个数时,则为左,上,右,下。 fill- (int or tuple) 填充的值是什么(仅当填充模式为constant时有用)。int时,各通道均填充该值,当长度为3的tuple时,表示RGB通道需要填充的值。 padding_mode- 填充模式,这里提供了4种填充模式,1.constant,常量。2.edge 按照图片边缘的像素值来填充。3.reflect,? 4. symmetric,?
    13.修改亮度、对比度和饱和度:transforms.ColorJitter
    class torchvision.transforms.ColorJitter(brightness=0, contrast=0, saturation=0, hue=0) 功能:修改修改亮度、对比度和饱和度
    14.转灰度图:transforms.Grayscale
    class torchvision.transforms.Grayscale(num_output_channels=1) 功能:将图片转换为灰度图 参数: num_output_channels- (int) ,当为1时,正常的灰度图,当为3时, 3 channel with r == g == b
    15.线性变换:transforms.LinearTransformation()
    class torchvision.transforms.LinearTransformation(transformation_matrix) 功能:对矩阵做线性变化,可用于白化处理! whitening: zero-center the data, compute the data covariance matrix 参数: transformation_matrix (Tensor) – tensor [D x D], D = C x H x W
    16.仿射变换:transforms.RandomAffine
    class torchvision.transforms.RandomAffine(degrees, translate=None, scale=None, shear=None, resample=False, fillcolor=0) 功能:仿射变换
    17.依概率p转为灰度图:transforms.RandomGrayscale
    class torchvision.transforms.RandomGrayscale(p=0.1) 功能:依概率p将图片转换为灰度图,若通道数为3,则3 channel with r == g == b
    18.将数据转换为PILImage:transforms.ToPILImage
    class torchvision.transforms.ToPILImage(mode=None) 功能:将tensor 或者 ndarray的数据转换为 PIL Image 类型数据 参数: mode- 为None时,为1通道, mode=3通道默认转换为RGB,4通道默认转换为RGBA
    19.transforms.Lambda
    Apply a user-defined lambda as a transform. 暂不了解,待补充。
    四、对transforms操作,使数据增强更灵活
    PyTorch不仅可设置对图片的操作,还可以对这些操作进行随机选择、组合
    20.transforms.RandomChoice(transforms)
    功能:从给定的一系列transforms中选一个进行操作,randomly picked from a list
    21.transforms.RandomApply(transforms, p=0.5)
    功能:给一个transform加上概率,以一定的概率执行该操作
    22.transforms.RandomOrder
    功能:将transforms中的操作顺序随机打乱

文章来源地址https://www.toymoban.com/news/detail-768202.html

到了这里,关于python深度学习【transforms所有用法介绍】的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 深度学习——Transformer的理解整理

    transformer刚被提出的时候就是被用于处理机器翻译的。在transformer架构中的不同位置Q,K,V指代的变量是不一样的。 假设现在处理的是英文-德文的翻译任务。 在encoder的输入端,这里执行的是 self-attention , Q、K、V 都是指代英 文的embedding 。 在decoder的输入端,这里执行的是

    2024年04月28日
    浏览(39)
  • 深度学习从入门到精通—Transformer

    1.1 传统的RNN网络 传统的RNN(递归神经网络)主要存在以下几个问题: 梯度消失和梯度爆炸 :这是RNN最主要的问题。由于序列的长距离依赖,当错误通过层传播时,梯度可以变得非常小(消失)或非常大(爆炸),这使得网络难以学习。 计算效率低 :RNN由于其递归性质,必

    2024年04月26日
    浏览(45)
  • 深度学习实战24-人工智能(Pytorch)搭建transformer模型,真正跑通transformer模型,深刻了解transformer的架构

    大家好,我是微学AI,今天给大家讲述一下人工智能(Pytorch)搭建transformer模型,手动搭建transformer模型,我们知道transformer模型是相对复杂的模型,它是一种利用自注意力机制进行序列建模的深度学习模型。相较于 RNN 和 CNN,transformer 模型更高效、更容易并行化,广泛应用于神

    2023年04月22日
    浏览(63)
  • 深度学习笔记之Transformer(四)铺垫:LayerNormalization

    在介绍 Transformer text{Transformer} Transformer 模型架构之前,首先介绍 Transformer text{Transformer} Transformer 的核心架构之一: 层标准化 ( Layer Normalization ) (text{Layer Normalization}) ( Layer Normalization ) 。 问题描述 批标准化 ( Batch Normalization ) (text{Batch Normalization}) ( Batch Normalization ) 我们

    2024年02月13日
    浏览(47)
  • 《动手学深度学习 Pytorch版》 10.7 Transformer

    自注意力同时具有并行计算和最短的最大路径长度这两个优势。Transformer 模型完全基于注意力机制,没有任何卷积层或循环神经网络层。尽管 Transformer 最初是应用于在文本数据上的序列到序列学习,但现在已经推广到各种现代的深度学习中,例如语言、视觉、语音和强化学习

    2024年02月08日
    浏览(49)
  • 深入理解深度学习——Transformer:解码器(Decoder)部分

    分类目录:《深入理解深度学习》总目录 相关文章: ·注意力机制(Attention Mechanism):基础知识 ·注意力机制(Attention Mechanism):注意力汇聚与Nadaraya-Watson核回归 ·注意力机制(Attention Mechanism):注意力评分函数(Attention Scoring Function) ·注意力机制(Attention Mechanism):

    2024年02月10日
    浏览(49)
  • 深入理解深度学习——Transformer:编码器(Encoder)部分

    分类目录:《深入理解深度学习》总目录 相关文章: ·注意力机制(AttentionMechanism):基础知识 ·注意力机制(AttentionMechanism):注意力汇聚与Nadaraya-Watson核回归 ·注意力机制(AttentionMechanism):注意力评分函数(AttentionScoringFunction) ·注意力机制(AttentionMechanism):Bahda

    2024年02月08日
    浏览(62)
  • 机器学习&&深度学习——BERT(来自transformer的双向编码器表示)

    👨‍🎓作者简介:一位即将上大四,正专攻机器学习的保研er 🌌上期文章:机器学习深度学习——transformer(机器翻译的再实现) 📚订阅专栏:机器学习深度学习 希望文章对你们有所帮助 我们首先理解一下相关的一些概念,首先我们知道在自然语言系统中,词是意义的基

    2024年02月12日
    浏览(45)
  • 【论文阅读】基于深度学习的时序异常检测——Anomaly Transformer

    系列文章链接 数据解读参考:数据基础:多维时序数据集简介 论文一:2022 Anomaly Transformer:异常分数预测 论文二:2022 TransAD:异常分数预测 论文三:2023 TimesNet:基于卷积的多任务模型 论文链接:Anomaly Transformer.pdf 代码链接:https://github.com/thuml/Anomaly-Transformer 视频讲解(原

    2024年02月14日
    浏览(36)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包