PyTorch核心--tensor 张量 !!

这篇具有很好参考价值的文章主要介绍了PyTorch核心--tensor 张量 !!。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

文章目录

前言

张量的概念

1. 张量的定义

2. 张量的属性

3. 张量的形状

张量的原理

1. 存储(storage)

2. 形状(shape)

3. 步幅(stride)

张量的操作

1. 数学运算

2. 逻辑运算

3. 索引和切片

4. 形状操作

5. 广播

总结


前言

在PyTorch中,张量是核心数据结构,它是一个多维数组,类似Numpy中的数组。张量不仅仅是存储数据的容器,还是进行各种数学运算和深度学习操作的基础。

下面从3个方面做一共总结:

  1. 张量的概念
  2. 张量的原理
  3. 张量的操作

张量的概念

1. 张量的定义

张量是一种多维数组,它可以是标量(零维数组)、向量(一维数组)、矩阵(二维数组)或具有更高维度的数组。

在PyTorch中,张量是tensor.Tensor 的实例,可以通过不同的方式创建,如直接从Python列表、Numpy数组或通过特定函数生成。

import torch

# 创建一个标量
scalar_tensor = torch.tensor(3.14)

# 创建一个向量
vector_tensor = torch.tensor([1, 2, 3])

# 创建一个矩阵
matrix_tensor = torch.tensor([[1, 2, 3], [4, 5, 6]])

# 创建一个3D张量
tensor_3d = torch.rand((2, 3, 4))  # 2行3列4深度

2. 张量的属性

每个张量都有一些重要的属性,包括形状(shape)、数据类型(dtype)和设备(device)。

# 获取张量的形状
shape = tensor_3d.shape

# 获取张量的数据类型
dtype = tensor_3d.dtype

# 获取张量所在的设备
device = tensor_3d.device

3. 张量的形状

张量的形状定义了其维度和每个维度上的大小。例如,形状为(2,3,4)的张量具有2行、3列和4个深度。形状对于理解和操作张量非常重要。

# 获取张量的形状
shape = tensor_3d.shape

# 改变张量的形状
reshaped_tensor = tensor_3d.view(3, 8)  # 将原始形状(2, 3, 4)变为(3, 8)

张量的原理

PyTorch中的张量是基于Tensor类实现的,它提供了对底层存储的抽象。

张量包含三个主要组件:

  • 存储(storage)
  • 形状(shape)
  • 步幅(stride)

1. 存储(storage)

存储是实际存储数据的地方,它是一块连续的内存区域。多个张量可以共享相同的存储,从而减少内存消耗。存储中的数据按照张量的形状进行排列。

# 获取张量的存储
storage = tensor_3d.storage()

2. 形状(shape)

张量的形状定义了其维度和每个维度上的大小。形状信息有助于解释存储中数据的组织方式。

# 获取张量的形状
shape = tensor_3d.shape

3. 步幅(stride)

步幅是指在存储中移动到下一个元素所需的步数。了解步幅有助于理解在张量中进行索引和切片时的性能。

# 获取张量的步幅
stride = tensor_3d.stride()

张量的操作

PyTorch提供了丰富的张量操作,包括数学运算、逻辑运算、索引和切片等。

这里列举最常见的几种操作:

1. 数学运算

# 加法
result_add = tensor_3d + 2

# 乘法
result_mul = tensor_3d * 3

# 矩阵乘法
matrix_a = torch.rand((2, 3))
matrix_b = torch.rand((3, 4))
result_matmul = torch.mm(matrix_a, matrix_b)

2. 逻辑运算

# 大小比较
result_compare = tensor_3d > 0.5

# 逻辑运算
result_logical = torch.logical_and(result_add, result_compare)

3. 索引和切片

# 索引
element = tensor_3d[0, 1, 2]

# 切片
sliced_tensor = tensor_3d[:, 1:3, :]

4. 形状操作

# 改变形状
reshaped_tensor = tensor_3d.view(3, 8)

# 转置
transposed_tensor = tensor_3d.transpose(0, 2)

5. 广播

广播是一种自动扩展张量的操作,使得形状不同的张量可以进行逐元素的数学运算。

# 广播
tensor_a = torch.rand((1, 3, 1))
tensor_b = torch.rand((2, 1, 4))
result_broadcast = tensor_a + tensor_b

总结

张量作为深度学习中的基本数据结构,对于理解和实现神经网络非常关键。

来源:DOWHA小壮文章来源地址https://www.toymoban.com/news/detail-818330.html

到了这里,关于PyTorch核心--tensor 张量 !!的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

  • 【带着学Pytorch】2、张量(Tensor)的介绍与创建

    【带着学Pytorch】2、张量(Tensor)的介绍与创建

           最开始在出现CPU和GPU, GPU出现主要解决的问题时并行计算,在此基础上的软件层面的工作基本上围绕着并行计算进行的,张量也不例外。 首先,我们先来聊聊 编程语言,python,java ,C,C++等,他们都有的共同特点是什么?在大学中计算机类专业耳熟能详, 算法、数

    2024年02月11日
    浏览(6)
  • 【Pytorch】学习记录分享1——Tensor张量初始化与基本操作

    【Pytorch】学习记录分享1——Tensor张量初始化与基本操作

    1. 基础资料汇总 资料汇总 pytroch中文版本教程 PyTorch入门教程 B站强推!2023公认最通俗易懂的【PyTorch】教程,200集付费课程(附代码)人工智能_机器 视频 1.PyTorch简介 2.PyTorch环境搭建 basic: python numpy pandas pytroch theory: study mlp cnn transform rnn model: AlexNet VGG ResNet Yolo SSD 2. Tensor张量

    2024年02月04日
    浏览(12)
  • 【1】深度学习之Pytorch——张量(tensor)的尺寸、储存偏移及步长等基本概念

    【1】深度学习之Pytorch——张量(tensor)的尺寸、储存偏移及步长等基本概念

    深度学习的基本概念 深度学习是一种人工神经网络的学习方法。它通过模仿人脑的学习方式来处理信息。深度学习的网络有很多层,每层都能学习到更抽象的概念。这种方法在语音识别、计算机视觉、自然语言处理等领域有很好的应用。 深度学习也有许多应用,这些应用往

    2024年02月02日
    浏览(20)
  • tensor是pytorch的核心,那torch.tensor和torch.Tensor区别是?

    从本节课程开始我们将正式开启pytorch的学习了,在深度学习框架中有一个重要的概念叫做张量,它是pytorch的基本操作单位,要想创建tensor有很多的方式,但是有两个torch.tensor和torch.Tensor容易混淆,本节课程对二者进行总结。 torch.Tensor是默认的tensor类型(torch.FloatTensor)的简

    2024年04月24日
    浏览(18)
  • 将图结构转换矩阵数据转换为PyTorch支持的张量类型时,出现错误AttributeError ‘Tensor‘ object has no attribute ‘todense‘

    将图结构转换矩阵数据转换为PyTorch支持的张量类型时,出现错误AttributeError ‘Tensor‘ object has no attribute ‘todense‘

    将图结构转换矩阵数据转换为PyTorch支持的张量类型时,出现错误AttributeError: ‘Tensor’ object has no attribute ‘todense’ 实例来源于《PyTorch深度学习和图神经网络 卷1》实例26:用图卷积神经网络为论文分类 出错部分p284页 原代码: 错误提示: ​ 找了一圈没有一样的解决方案,但

    2024年02月13日
    浏览(9)
  • Pytorch 张量操作 Python切片操作

    Pytorch 张量操作 Python切片操作

    梳理一下Pytorch的张量切片操作 一维向量的操作其实很像numpy一维数组,基本定义如下: 1.默认步长为1 2.起始索引:结束索引 是一个**左闭右开区[)**间,即结束索引的值不取 3.有反向索引,具体如下: [起始索引:结束索引:步长] 对于一维向量而言,操作使用 冒号 :,而对于

    2023年04月09日
    浏览(13)
  • 人工智能(pytorch)搭建模型9-pytorch搭建一个ELMo模型,实现训练过程

    人工智能(pytorch)搭建模型9-pytorch搭建一个ELMo模型,实现训练过程

    大家好,我是微学AI,今天给大家介绍一下人工智能(pytorch)搭建模型9-pytorch搭建一个ELMo模型,实现训练过程,本文将介绍如何使用PyTorch搭建ELMo模型,包括ELMo模型的原理、数据样例、模型训练、损失值和准确率的打印以及预测。文章将提供完整的代码实现。 ELMo模型简介 数据

    2024年02月07日
    浏览(45)
  • 人工智能学习07--pytorch15(前接pytorch10)--目标检测:FPN结构详解

    人工智能学习07--pytorch15(前接pytorch10)--目标检测:FPN结构详解

    backbone:骨干网络,例如cnn的一系列。(特征提取) (a)特征图像金字塔 检测不同尺寸目标。 首先将图片缩放到不同尺度,针对每个尺度图片都一次通过算法进行预测。 但是这样一来,生成多少个尺度就要预测多少次,训练效率很低。 (b)单一特征图 faster rcnn所采用的一种方式

    2023年04月12日
    浏览(94)
  • 人工智能学习07--pytorch14--ResNet网络/BN/迁移学习详解+pytorch搭建

    人工智能学习07--pytorch14--ResNet网络/BN/迁移学习详解+pytorch搭建

    亮点:网络结构特别深 (突变点是因为学习率除0.1?) 梯度消失 :假设每一层的误差梯度是一个小于1的数,则在反向传播过程中,每向前传播一层,都要乘以一个小于1的误差梯度。当网络越来越深的时候,相乘的这些小于1的系数越多,就越趋近于0,这样梯度就会越来越小

    2023年04月11日
    浏览(312)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包