GPU是什么以及与CPU的区别

这篇具有很好参考价值的文章主要介绍了GPU是什么以及与CPU的区别。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1. GPU是什么?

图形处理器(英语:graphics processing unit,缩写:GPU),又称显示核心、视觉处理器、显示芯片,是一种专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上做图像和图形相关运算工作的微处理器。

GPU使显卡减少了对CPU的依赖,并进行部分原本CPU的工作,尤其是在3D图形处理时GPU所采用的核心技术有硬件T&L(几何转换和光照处理)、立方环境材质贴图和顶点混合、纹理压缩和凹凸映射贴图、双重纹理四像素256位渲染引擎等,而硬件T&L技术可以说是GPU的标志。GPU的生产商主要有NVIDIA和ATI。

1.1. 简介

一个光栅显示系统离不开图形处理器,图形处理器是图形系统结构的重要元件,是连接计算机和显示终端的纽带。

应该说有显示系统就有图形处理器(俗称显卡),但是早期的显卡只包含简单的存储器和帧缓冲区,它们实际上只起了一个图形的存储和传递作用,一切操作都必须由CPU来控制。这对于文本和一些简单的图形来说是足够的,但是当要处理复杂场景特别是一些真实感的三维场景,单靠这种系统是无法完成任务的。所以后来发展的显卡都有图形处理的功能。它不单单存储图形,而且能完成大部分图形功能,这样就大大减轻了CPU的负担,提高了显示能力和显示速度。随着电子技术的发展,显卡技术含量越来越高,功能越来越强,许多专业的图形卡已经具有很强的3D处理能力,而且这些3D图形卡也渐渐地走向个人计算机。一些专业显卡具有的晶体管数甚至比同时代的CPU的晶体管数还多。比如2000年加拿大ATI公司推出的 RADEON显卡芯片含有3千万颗晶体管,达到每秒15亿个象素填写率。

1.2. 组成

图形处理器由以下器件组成:

  1. 显示主芯片显卡的核心,俗称GPU,它的主要任务是对系统输入的视频信息进行构建和渲染。
  2. 显示缓冲存储器用来存储将要显示的图形信息以及保存图形运算的中间数据;显示缓存的大小和速度直接影响着主芯片性能的发挥。
  3. RAMD/A转换器把二进制的数字转换成为和显示器相适应的模拟信号。

1.3. 供应商

  1. ATI

1985年8月20日ATI公司成立,同年10月ATI使用ASIC技术开发出了第一款图形芯片和图形卡,1992年4月ATI发布了Mach32图形卡集成了图形加速功能,1998年4月ATI被IDC评选为图形芯片工业的市场领导者,但那时这种芯片还没有GPU的称号,很长的一段时间ATI都是把图形处理器称为VPU,直到AMD收购ATI之后其图形芯片才正式采用GPU的名字。

  1. NVIDIA

NVIDIA公司在1999年发布 Geforce256图形处理芯片时首先提出GPU的概念。从此 NVIDIA显卡的芯就用GPU来称呼。GPU使显卡减少了对CPU的依赖,并进行部分原本CPU的工作,尤其是在3D图形处理时。GPU所采用的核心技术有硬体T&L、立方环境材质贴图和顶点混合、纹理压缩和凹凸映射贴图、双重纹理四像素256位渲染引擎等,而硬体T&L技术可以说是GPU的标志。

1.4. GPU的工作原理

简单说GPU就是能够从硬件上支持T&L(Transform and Lighting,多边形转换与光源处理)的显示芯片,因为T&L是3D渲染中的一个重要部分,其作用是计算多边形的3D位置和处理动态光线效果,也可以称为“几何处理”,提供细致的3D物体和高级的光线特效;只不过大多数PC中,T&L的大部分运算是交由CPU处理的(这就也就是所谓的软件T&L),由于CPU的任务繁多,除了T&L之外,还要做内存管理、输入响应等非3D图形处理工作,因此在实际运算的时候性能会大打折扣,常常出现显卡等待CPU数据的情况,其运算速度远跟不上今天复杂三维游戏的要求。但,新一代支持DX10或以上的显卡,在系统为windows vista或以上的环境中,可以把T&L的所有工作交给GPU完成,大大提高显卡运行的效率。也使得显卡对CPU的依赖最大化的减少。

1.5. 主要作用

GPU是显示卡的“大脑”,它决定了该显卡的档次和大部分性能,同时也是2D显示卡和3D显示卡的区别依据。2D显示芯片在处理3D图像和特效时主要依赖CPU的处理能力,称为“软加速”。3D显示芯片是将三维图像和特效处理功能集中在显示芯片内,也即所谓的“硬件加速”功能。显示芯片通常是显示卡上最大的芯片(也是引脚最多的)。现在市场上的显卡大多采用NVIDIA和 AMD-ATI两家公司的图形处理芯片。

2. GPU和CPU

2.1. 什么是 CPU?

CPU 由数百万个晶体管组成,可以有多个处理内核,通常被称为计算机的大脑。它是所有现代计算系统必不可少的组成部分,因为它执行计算机和操作系统所需的命令和流程。 在确定程序运行速度方面(从网页浏览到构建电子表格),CPU 也很重要。

2.2. 什么是 GPU?

GPU 是由许多更小、更专业的内核组成的处理器。 在多个内核之间划分并执行一项处理任务时,通过协同工作,这些内核可以提供强大的性能。

2.3. CPU 与 GPU 有什么区别?

CPU 和 GPU 具有很多共同点。它们都是重要的计算引擎。都是基于芯片的微处理器。并且,两者都处理数据。但是 CPU 和 GPU 具有不同的架构,构建的目的也不同。

CPU 适用于一系列广泛的工作负载,特别是那些对于延迟和单位内核性能要求较高的工作负载。作为强大的执行引擎,CPU 将它数量相对较少的内核集中用于处理单个任务,并快速将其完成。这使它尤其适合用于处理从串行计算到数据库运行等类型的工作。

GPU 最初是作为专门用于加速特定 3D 渲染任务的 ASIC 开发而成的。随着时间的推移,这些功能固定的引擎变得更加可编程化、更加灵活。尽管图形处理和当下视觉效果越来越真实的顶级游戏仍是 GPU 的主要功能,但同时,它也已经演化为用途更普遍的并行处理器,能够处理越来越多的应用程序。

CPU和GPU之所以大不相同,是由于其设计目标的不同,它们分别针对了两种不同的应用场景。CPU需要很强的通用性来处理各种不同的数据类型,同时又要逻辑判断又会引入大量的分支跳转和中断的处理。这些都使得CPU的内部结构异常复杂。而GPU面对的则是类型高度统一的、相互无依赖的大规模数据和不需要被打断的纯净的计算环境。

于是CPU和GPU就呈现出非常不同的架构(示意图):具体可参考:https://www.zhihu.com/question/19903344
gpu是什么和cpu的区别,飞蛾扑火:人工智能,人工智能

2.4. 加速深度学习和人工智能

当今的 GPU 运行越来越多的工作负载,例如深度学习和人工智能 (AI)。对于具有多个神经网络层或对大量特定数据集(例如 2D 图像)进行的深度学习训练,GPU 或其他加速器是理想的选择。

深度学习算法经过调整,可以采用 GPU 加速方法,大幅提升了性能,并首次将多个现实世界问题的训练带到了可行的范围内。

CPU 以及在 CPU 上运行的软件库随着时间推移而不断演进,执行深度学习任务的能力也大大提高。例如,通过广泛的软件优化以及添加专用人工智能硬件(例如最新英特尔® 至强® 可扩展处理器中的英特尔® 深度学习加速),基于 CPU 的系统在深度学习性能方面有所提升。

对于许多应用程序,例如对语言、文本和时间序列数据进行基于高清图像、3D 图像和非图像的深度学习,CPU 可以大放异彩。对于复杂模型或深度学习应用程序(例如,2D 图像检测),与当今最强大的 GPU 相比,CPU 可以支持大得多的内存容量。

CPU 与 GPU 的组合以及充足的 RAM 为深度学习和人工智能提供了出色的测试平台。文章来源地址https://www.toymoban.com/news/detail-584929.html

U 相比,CPU 可以支持大得多的内存容量。

CPU 与 GPU 的组合以及充足的 RAM 为深度学习和人工智能提供了出色的测试平台。

到了这里,关于GPU是什么以及与CPU的区别的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Linux和Windows系统下:安装Anaconda、Paddle、tensorflow、pytorch,GPU[cuda、cudnn]、CPU安装教学,以及查看CPU、GPU内存使用情况

    Anaconda安装:Anaconda是一个开源的Python发行版本,其包含了conda、Python等180多个科学包及其依赖项。使用Anaconda可以通过创建多个独立的Python环境,避免用户的Python环境安装太多不同版本依赖导致冲突。 Anaconda 是一个免费开源的 Python 和 R 语言的发行版本,用于计算科学,Anac

    2024年02月04日
    浏览(64)
  • 腾讯云GPU云服务器CPU是什么?主频多少?

    腾讯云CPU云服务器CPU型号、主频多少?GPU渲染型GA3实例CPU采用2.55GHz主频AMD EPYCTM Milan 处理器,渲染型GNV4实例采用Intel® Xeon® Cooper Lake 处理器,基频 3.4 GHz,睿频3.8 GHz,腾讯云服务器网分享腾讯云GPU服务器CPU型号主频说明: 目录 GPU云服务器CPU处理器说明 腾讯云异构计算实例族

    2024年02月15日
    浏览(61)
  • onnxruntime推理时切换CPU/GPU以及修改onnx输入输出为动态

    前言 onnx模型作为中间模型,相较于pytorch直接推理,是有加速度效果的,且推理代码简单,不需要load各种网络。最近某些项目因为显存不够,onnxruntime推理时切换CPU/GPU,实现某些模型在CPU上推理,某些在GPU上推理。 查了一些别人的文章发现很多人都说onnxruntime推理没法像py

    2024年02月12日
    浏览(55)
  • ubuntu 安装 jax jaxlib cpu 和 gpu 版本 以及 tensorflow tensorRT的安装

    需要事先安装较新版本的 cuda 和cudnn ,例如11.8 + 8.8 在已经安装过cuda的机器上安装新版cuda sdk 和 cudnn 可参考前述: ubuntu 安装 多版本 cuda 11.4 11.8_Eloudy的博客-CSDN博客 一,安装python3 和 pip3 二,安装 cpu版本的 jax 和 jaxlib      使用pip官方源安装 jax:       使用pip清华源安装

    2024年02月06日
    浏览(46)
  • [架构之路-14]:目标系统 - 硬件平台 - CPU、MPU、NPU、GPU、MCU、DSP、FPGA、SOC的区别

    目录 前言: 一、通用指令程序控制 1.1 CPU(Central Processing Unit:中央处理单元/器) 1.2 MPU(Microprocessor Unit:微处理单元/器)-- 广义CPU 1.3 MCU(Mirco Controller Unit:微控制单元)-- 单片机 二、网络协议处理器NPU 2.1 npu = network processing units:网络处理单元 2.2 npu = neural-network proces

    2024年02月01日
    浏览(71)
  • 一文彻底搞懂为什么OpenCV用GPU/cuda跑得比用CPU慢?

    最近项目需要,发现了这个问题。网上找原因,汇总起来,有以下几点原因: 1、首先对于任何一个CUDA程序,在调用它的第一个CUDA API时后都要花费秒级的时间去初始化运行环境,后续还要分配显存,传输数据,启动内核,每一样都有延迟。这样如果你一个任务CPU运算都仅要

    2024年02月03日
    浏览(63)
  • 深度学习部署(十九): CUDA RunTime API YOLOV5后处理cpu解码以及gpu解码

    看看我们干了什么, 就是把bouding box恢复成框而已 对于模型推理后的后处理,可以直接使用cuda核函数进行解码,效率比较高 nms也可以在核函数里面实现 这里演示了一个yolov5的实际案例,后续其他的操作都是类似的 gpu_decoder难度较大,一般先写一个cpu的decoder, 再写个gpu_decode

    2023年04月11日
    浏览(52)
  • 一文让非技术宅读懂为什么AI更“喜欢”GPU而不是CPU?

      随着人工智能(AI)技术的快速发展,深度学习等算法在图像识别、自然语言处理、数据挖掘等方面表现出了强大的能力。而这些算法的底层计算,往往对硬件有着极高的要求。为了满足这些需求,越来越多的研究和工程实践开始尝试使用图形处理器(Graphics Processing Units,缩

    2024年02月17日
    浏览(47)
  • 配置(GPU/CPU)Pytorch环境以及修改conda和pip默认安装路径,安装环境前必看!!(———记自己装环境踩过的坑......)

    版本: pytorch2.0 pycharm2022.3 python3.8 如果你要配置pytorch,你先要确定自己在这台电脑上是只作为学习调试代码用还是要用来跑模型,如果用来跑模型,请先下载CUDA和Cudnn,详见此链接安装配置CUDA与cuDNN安装教程(超详细) 如果是单纯用来学习调试代码,不需要调用GPU版本的p

    2024年02月07日
    浏览(61)
  • AI芯片架构体系综述:芯片类型CPU\GPU\FPGA\ASIC以及指令集CSIS\RISC介绍

    大模型的发展意味着算力变的越发重要,因为大国间科技竞争的关系,国内AI从业方在未来的一段时间存在着算力不确定性的问题,与之而来的是许多新型算力替代方案的产生。如何从架构关系上很好的理解计算芯片的种类,并且从计算类型、生态、流片能力等多角度评估算

    2024年02月04日
    浏览(51)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包