[Machine Learning][Part 7]神经网络的基本组成结构

这篇具有很好参考价值的文章主要介绍了[Machine Learning][Part 7]神经网络的基本组成结构。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

这里我们将探索神经元/单元和层的内部工作原理。特别是,与之前学习的回归/线性模型和逻辑模型进行比较。最后接介绍tensorflow以及如何利用tensorflow来实现这些模型。

神经网络和大脑的神经元工作原理类似,但是比大脑的工作原理要简单的多。大脑中神经元的工作原理如下图:inputs表示上一个神经元传递过来的信号,然后经过当前神经元的处理,当前神经元将处理后的信号传递给下一个神经元,这样基本的信号传递就完成了。

[Machine Learning][Part 7]神经网络的基本组成结构,Machine Learning,机器学习,神经网络,人工智能

神经网络的结构

machine learning的神经网络结构类似于大脑的神经网络结构,下图中向量x为上一层的输入,包含三个蓝色圆圈的黑色方框是当前的处理层,向量a[1]为当前层的输出,并且问下一层的输入,向量a[2]为最终的输出结果。可以看到一个简单的神经网络由输入层处理层输出层组成,其中处理层中可以包含多个处理的“神经元”,处理层也叫做隐藏层。

[Machine Learning][Part 7]神经网络的基本组成结构,Machine Learning,机器学习,神经网络,人工智能

更复杂的神经网络包含多个处理层,如下图,包含两个处理层:

[Machine Learning][Part 7]神经网络的基本组成结构,Machine Learning,机器学习,神经网络,人工智能

 输入层

输入训练数据的作用

处理层

处理层中包含多个神经元,每一个神经元就是一个处理模型,比如说线性回归模型,逻辑回归模型或者sigmoid激活函数。

[Machine Learning][Part 7]神经网络的基本组成结构,Machine Learning,机器学习,神经网络,人工智能

比如上面的处理层a[1]有3个神经元(unit表示神经元),那么layer_1中包含3个unit,并且都是sigmoid激活函数。输出层a[2]有一个神经元,那么layer_2中unit为1,模型为sigmoid激活函数

那么怎么将各层之间的输入与输出联系起来呢?Sequential 会将所有的层按线性连接起来形成module,如下图

[Machine Learning][Part 7]神经网络的基本组成结构,Machine Learning,机器学习,神经网络,人工智能

这种上一层的输出结果作为下一层的输入,并计算下一层的输出,直到计算到输出层为止,被叫做前向传播(forward)。 前向传播的一般实现为:文章来源地址https://www.toymoban.com/news/detail-739443.html

import numpy as np


W = np.array([[1,-3,5]
              [2,4,-6]])
b = np.array([-1,1,2])
a_in = np.arry([-2,4])


def dense(a_in,W,b,g):
    units = W.shape[1]
    a_out = np.zeros(units)
    for j in range(units):
        w= W[:,j]
        z = np.dot(w,a_in) + b[j]
        a_out[j]=g(z)
    return a_out


def sequential(x):
    a1 = dense(x,W[1],b[1])
    a2 = dense(a1, W[2], b[2])
    a3 = dense(a2, W[3], b[1])
    a4 = dense(a3, W[4], b[1])
    f_x = a4
    return f_x

到了这里,关于[Machine Learning][Part 7]神经网络的基本组成结构的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • webassembly003 ggml GGML Tensor Library part-4 实现在浏览器端训练神经网络

    emcc -I~/***/76/ ~/***/76/ggml.c ~/leetcode/76/main.cpp -o ~/leetcode/76/hf.js -s EXPORTED_FUNCTIONS=\\\'[\\\"_hf_play_test\\\",\\\"_hf_play_set_val\\\",\\\"_malloc\\\",\\\"_free\\\"]\\\' -s EXPORTED_RUNTIME_METHODS=\\\'[\\\"ccall\\\"]\\\' -s ALLOW_MEMORY_GROWTH=1 解决 emcc -I~/***/76/ ~/***/76/ggml.c ~/leetcode/76/main.cpp -o ~/leetcode/76/hf.html -s EXPORTED_FUNCTIONS=\\\'[\\\"_hf_play_set_val\\\",\\\"_hf_p

    2024年02月10日
    浏览(26)
  • 【神经网络第三期】RBF神经网络基本原理和模型应用

    目录 1. RBF神经网络基本概 2. RBF神经网络结构模型 3.RBF神经网络的学习算法 4. 相关模型应用 径向基函数( Radical Basis Function, RBF)是多维空间插值的传统技术,由Powell 于1985 年提出。1988 年, Broomhead 和Lowe 根据生物神经元具有局部响应这一特点,将RBF 引人神经网络设计中,产

    2024年02月14日
    浏览(27)
  • BP神经网络算法基本原理,BP神经网络算法流程图

    由于目前研究的各种数学模型或多或少存在使用条件的局限性,或使用方法的复杂性等问题,预测效果均不十分理想,距离实际应用仍有较大差距。 NNT是Matlab中较为重要的一个工具箱,在实际应用中,BP网络用的最广泛。 神经网络具有综合能力强,对数据的要求不高,适时学

    2024年02月08日
    浏览(46)
  • 卷积神经网络的基本结构

    与传统的全连接神经网络一样,卷积神经网络依然是一个层级网络,只不过层的功能和形式发生了变化。 典型的CNN结构包括: 数据输入层(Input Layer) 卷积层(Convolutional Layer) 激活层(Activation Layer) 池化层(Pooling Layer) 全连接层(Full Connection Layer) 损失层(Loss Functio

    2024年02月21日
    浏览(32)
  • 神经网络:基本概念、模型与技术

    神经网络:基本概念、模型与技术 引言 在近年来,人工智能领域取得了显著的进步,其中最引人注目的成就之一就是神经网络。神经网络是一种模拟人脑工作机制的算法,以其出色的学习和识别能力,对各个领域的实际问题产生了深远影响。在本篇博客中,我们将深入探讨

    2024年02月09日
    浏览(32)
  • 卷积神经网络CNN各层基本知识

    卷积神经网络(CNN)由输入层、卷积层、激活函数、池化层以及全连接层构成。 INPUT(输入层)-CONV(卷积层)-RELU(激活函数)-POOL(池化层)-FC(全连接层) 简单来说:卷积用来提取特征,池化压缩特征,全连接层用来加权重 卷积层的作用是用来提取特征,卷积层主要涉及的

    2024年02月04日
    浏览(35)
  • 深度学习入门——卷积神经网络CNN基本原理+实战

    ​ 卷积神经网络(Convolutional Neural Network,CNN)是深度学习技术中最基础的网络结构,模拟人脑工作,具备强大的特征学习能力。CNN结构主要由两部分组成:特征提取部分和分类部分color{blue}{特征提取部分和分类部分}特征提取部分和分类部分。特征提取部分网络将执行一系列

    2024年01月21日
    浏览(39)
  • PyTorch入门学习(六):神经网络的基本骨架使用

    目录 一、引言 二、创建神经网络骨架 三、执行前向传播 一、引言 神经网络是深度学习的基础。在PyTorch中,可以使用 nn.Module 类创建自定义神经网络模型。本文将演示如何创建一个简单的神经网络骨架并执行前向传播操作。 二、创建神经网络骨架 首先,导入PyTorch库并创建

    2024年02月08日
    浏览(31)
  • umich cv-6-1 循环神经网络基本知识

    这节课中介绍了循环神经网络的第一部分,主要介绍了循环神经网络的基本概念,vanilla循环网络架构,RNN的一些应用,vanilla架构的问题,更先进的rnn架构比如GRU和LSTM 循环神经网络基本知识 vanilla循环网络架构 应用与理解 vanilla架构的问题 LSTM 在之前的讨论中,我们往往以图

    2024年02月08日
    浏览(30)
  • pytorch(6)——神经网络基本骨架nn.module的使用

    torch.nn(Neural network, 神经网络)内包含Pytorch神经网络框架 Containers: 容器 Convolution Layers: 卷积层 Pooling Layers: 池化层 Padding Layers: 填充层 Non-linear Activations (weighted sum, nonlinearity):非线性激活 Non-linear Activations (other):非线性激活 Normalization Layers:归一化层 Recurrent Layers:递归层 Tr

    2024年02月14日
    浏览(30)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包