谷歌云计算技术基础架构,谷歌卷积神经网络

这篇具有很好参考价值的文章主要介绍了谷歌云计算技术基础架构,谷歌卷积神经网络。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

谷歌云计算技术基础架构,谷歌卷积神经网络

谷歌开源了TensorFlow,世界就要马上被改变了吗

Google开源了其第二代深度学习技术TensorFlow——被使用在Google搜索、图像识别以及邮箱的深度学习框架。这在相关媒体圈、工程师圈、人工智能公司、人工智能研究团队里有了一些讨论。

比较有趣的是,微软亚洲研究院立刻向媒体发邮件表示,我们发布了开源分布式机器学习工具包(DMTK)。对于大众来说,这件事让人“困惑”。

从“深度学习”到“分布式系统”,太多概念大众一知半解,现今给出的资料又让人难以理解。而对于“Google开源TensorFlow”这一事件,各个公司、团队、学术权威也是众说纷纭。

因此,出门问问为大家“破雾”,并讲一讲这次开源意味着什么。什么是深度学习?深度学习系统是什么?深度学习理论于2006年被提出,它通过模拟“人脑的神经网络”来解释图像、声音和文本等数据。

但是目前的计算机还达不到模拟人脑数量庞大的神经元(千亿级),因此便有了用到成千上万大型计算机(计算平台集群)来吸收数据对其进行自动分类的“分布式深度学习系统”。

TensorFlow的起源和此次开源事件Google将自家研发的深度学习系统命名为“DistBelief”,它使得Google能够同时处理成千上万台大型计算机的数据,构建更大型的神经网络和大规模训练。

Google的搜索、图像识别及邮箱等均采用了该技术。一般情况下,深度学习系统都需要先设定好feature(特征),再学习如何分辨。

但GoogleDistBelief神奇的地方在于,“GoogleBrain”开发团队“XLab”曾用它在未事先获取“猫的特征描述”信息的情况下,从大量YouTube视频中区分出了哪些是猫的视频。

这意味着深度学习系统“DistBelief”自行总结出了猫的feature(特征)!虽然这个案例的识别范围、识别率有待提高(81.7%),但作为人工智能最经典案例之一,为人工智能翻开了新的篇章。

而“猫”的事件,也让曾经的GoogleBrain开发团队“XLab”的核心人员、现在被李彦宏挖到百度的吴恩达得到了“GoogleBrain”之父的美誉。

不过,时代总是进步,而“DistBelief”有缺陷。Google称,虽然DistBelief非常成功,但它仅仅以神经网络为目的、十分局限,而且很难进行配置。

另外,DistBelief牢牢绑定在Google的内部基础设施上,几乎不可能将代码与外界共享。因此,本文的主角,Google的第二代深度学习系统“TensorFlow”横空出世了。

Google表示,TensorFlow在设计上尤其针对克服DistBelief的短板,灵活、更通用、易使用、更快,而且完全开源。

TensorFlow可以被架设在智能手机这样小的设备上,甚至仅一块电路板上,更灵活;TensorFlow可以被使用在很多计算平台,无论是智能手机还是大型计算机、单个CPU/GPU计算机还是成百上千GPU卡组成的分布式系统,ARM的还是X86的构架,更通用;TensorFlow支持多种编程语言,提供了很多深度学习模型库,易使用;在很多指标上,TensorFlow要比DistBelief要快一倍,更快。

但是,学术界和工程界的一些朋友并不喜欢这个“刚刚闯入”开源界的“小伙子”,判了它“意义不大”的死刑。

“TensorFlow”之所以“开源”却不讨好,是因为TensorFlow不是第一个被开源的深度学习系统,并且目前只开源了“单机版”,而非能够识别猫的“分布式版本”。

除了并非第一以及只开源了单机版代码这两点外,Google开源TensorFlow这件事最被人诟病的地方在于,在“用事实”、“用数据”说话的学术界、工程界,Google并未用“数据对比”证明TensorFlow的“灵活、更通用、易使用”。

对于TensorFlow,出门问问的看法是,TensorFlow对学术界意义不大,但是对工程界意义挺大。

TensorFlow对工程界有意义:其它开源工具虽然众多但对工程界很难有效使用Google这次开源的TensorFlow是一种人工智能(更具体的说是深度学习)编程语言或计算框架,学术界从来都不缺少类似的开源工具,尤其是“单机版工具包”有很多。

但是学术界的工具往往更多专注在核心算法上,在系统和工程方面比较欠缺,工业界很难直接有效的使用,而Google的TensorFlow在架构设计,跨平台可移植性,算法可扩展性等等偏工程方面会做的比较好。

所以,TensorFlow对学术界的帮助比较小,但对工业界的帮助有很大潜在可能性。

比如语音识别、自然语言理解、计算机视觉、广告等等都可以应用这种深度学习算法,Google也因为深度学习系统的应用使得Google语音识别水平提高25%。

有意义归有意义,意义的大小是另一回事了。在这个信息交流频繁的时代,没有公司能随便制造一个具有超大意义的事件或者跨时代的黑科技产品。

对于工程界,TensorFlow有意义但又不是神乎其神的东西,尤其是Google目前开源的“单机版”的TensorFlow意义要小一些。

因为在工程界里,若要完成一整件事,如识别语音,TensorFlow这种通用深度学习框架的存在更多是锦上添花,而非决定根本。

比如说在一个可以应用的语音识别系统里,除了深度学习算法外,还有很多工作是专业领域相关的算法以及海量数据收集和工程系统架构的搭建。其实,对于中国来说,TensorFlow还有一个意义。

在人工智能大潮下许多人和公司想入局,但大都没有能力理解并开发一个与国际同步的深度学习系统,而TensorFlow的存在会大大降低深度学习在各个行业中的应用难度。

至于弄懂TensorFlow要花费大量时间的问题,就像很多公司用Linux或者hadoop(一种分布式系统基础架构)但很少有公司弄懂了所有源代码一样,可以把TensorFlow当成一个黑盒,先快速用起来,之后再根据数据和专业领域知识来调整。

总的来说,如果Google按照其所说的那样,在未来完全开源TensorFlow——包括其“分布式版本”,那么TensorFlow对工程界的影响会更明显些——尤其对中国创业公司来说。

谷歌人工智能写作项目:小发猫

谷歌云计算技术基础架构,谷歌卷积神经网络

如何选择深度学习框架 TensorFlow/Torch/Mxnet/Theano

深度学习目前的应用领域很多,主要是计算机视觉和自然语言处理,以及各种预测等常见的神经网络结构

对于计算机视觉,可以做图像分类、目标检测、视频中的目标检测等,对于自然语言处理,可以做语音识别、语音合成、对话系统、机器翻译、文章摘要、情感分析等。

对于刚入行深度学习,想从事人工智能工业应用和研发的小白来说,选择文章来源地址https://www.toymoban.com/news/detail-485239.html

到了这里,关于谷歌云计算技术基础架构,谷歌卷积神经网络的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 人工智能领域:面试常见问题超全(深度学习基础、卷积模型、对抗神经网络、预训练模型、计算机视觉、自然语言处理、推荐系统、模型压缩、强化学习、元学习)

    【深度学习入门到进阶】必看系列,含激活函数、优化策略、损失函数、模型调优、归一化算法、卷积模型、序列模型、预训练模型、对抗神经网络等 专栏详细介绍:【深度学习入门到进阶】必看系列,含激活函数、优化策略、损失函数、模型调优、归一化算法、卷积模型、

    2024年02月15日
    浏览(70)
  • Inception 深度卷积神经网络(CNN)架构

    Inception是一种深度卷积神经网络(CNN)架构,由Google在2014年提出。它是一种基于多尺度卷积的网络结构,旨在解决传统CNN在处理不同大小的输入图像时存在的问题。 Inception的主要特点是使用了多个不同尺度的卷积核来提取不同尺度的特征。这些卷积核可以并行地应用于输入

    2024年02月12日
    浏览(36)
  • 计算机视觉-卷积神经网络

    目录 计算机视觉的发展历程 卷积神经网络 卷积(Convolution) 卷积计算 感受野(Receptive Field) 步幅(stride) 感受野(Receptive Field) 多输入通道、多输出通道和批量操作 卷积算子应用举例 计算机视觉作为一门让机器学会如何去“看”的学科,具体的说,就是让机器去识别摄

    2024年02月10日
    浏览(46)
  • 7.卷积神经网络与计算机视觉

    计算机视觉是一门研究如何使计算机识别图片的学科,也是深度学习的主要应用领域之一。 在众多深度模型中,卷积神经网络“独领风骚”,已经被称为计算机视觉的主要研究根据之一。 卷积神经网络最初由 Yann LeCun(杨立昆)等人在1989年提出,是最初取得成功的深度神经

    2024年04月10日
    浏览(78)
  • 神经网络卷积反卷积及池化计算公式、特征图通道数(维度)变化实例

    卷积神经网络,要特别注意输入图像的尺寸,如果想套用某个网络结构,需要先通过网络结构计算出输入图像尺寸,将自己的图像调整为所需要的尺寸;也可以根据自己的图像尺寸适当调整网络结构。以下是具体操作方法。 目录 一,要想计算图像尺寸,先要了解基础卷积等

    2024年02月03日
    浏览(41)
  • 计算机视觉:深层卷积神经网络的构建

    上一节课程中我们学习了单卷积层的前向传播,本次课程我们构建一个具有三个卷积层的卷积神经网络,然后从输入(39*39*3)开始进行三次卷积操作,我们来看一下每次卷积的输入和输出维度的变化。 第一层使用3*3*3的过滤器来提取特征,那么f[1]=3,然后步长s[1]=1,填充p[1]

    2024年02月10日
    浏览(52)
  • 深度学习基础——卷积神经网络(一)

    卷积是卷积神经网络中的基本操作,对于图像的特征提取有着关键的作用,本文首先介绍卷积的基本原理与作用,然后通过编写程序实现卷积操作,并展示了均值、高斯与sobel等几种经典卷积核的卷积效果,接着调用MindSpore中的卷积算子Conv2d来实现卷积操作,最后介绍了Mind

    2024年02月20日
    浏览(40)
  • 【计算机视觉】万字长文详解:卷积神经网络

    以下部分文字资料整合于网络,本文仅供自己学习用! 如果输入层和隐藏层和之前一样都是采用全连接网络,参数过多会导致 过拟合 问题,其次这么多的参数存储下来对计算机的内存要求也是很高的 解决这一问题,就需要用到——卷积神经网络 这是一种理解卷积的角度(

    2024年02月19日
    浏览(58)
  • 经过卷积神经网络之后的图片的尺寸如何计算

    经过卷积神经网络(Convolutional Neural Network,CNN)处理后,图片的尺寸会发生变化,这是由于卷积层、池化层等操作引起的。计算图片经过卷积神经网络后的尺寸变化通常需要考虑卷积核大小、步幅(stride)、填充(padding)以及池化操作等因素。以下是计算过程的一般步骤:

    2024年02月10日
    浏览(38)
  • 【深度学习】计算机视觉(五)——卷积神经网络详解

    卷积神经网络(CNN) 卷积神经网络基本上应用于图像数据。假设我们有一个输入的大小(28 * 28 * 3),如果我们使用正常的神经网络,将有2352(28 * 28 * 3)参数。并且随着图像的大小增加参数的数量变得非常大。我们“卷积”图像以减少参数数量。 CNN的输入和输出没什么特别

    2024年02月06日
    浏览(58)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包