拓扑排序:神经网络

这篇具有很好参考价值的文章主要介绍了拓扑排序:神经网络。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

题目链接

神经网络

题目大意

在兰兰的模型中,神经网络就是一张有向图,图中的节点称为神经元,而且两个神经 元之间至多有一条边相连,下图是一个神经元的例子:
拓扑排序:神经网络
图中, X 1 — X 3 X_1—X_3 X1X3是信息输入渠道, Y 1 - Y 2 Y_1-Y_2 Y1Y2 是信息输出渠道, C i C_i Ci表示神经元目前的状态, U i U_i Ui是阈值,可视为神经元的一个内在参数。

神经元按一定的顺序排列,构成整个神经网络。在兰兰的模型之中,神经网络中的神 经无分为几层;称为输入层、输出层,和若干个中间层。每层神经元只向下一层的神经元输出信息,只从上一层神经元接受信息。下图是一个简单的三层神经网络的例子。
拓扑排序:神经网络
兰兰规定, C i C_i Ci服从公式:(其中 n n n 是网络中所有神经元的数目)
拓扑排序:神经网络
公式中的 W j i W_{ji} Wji(可能为负值)表示连接 jj 号神经元和 ii 号神经元的边的权值。当 C i C_i Ci大于 0 时,该神经元处于兴奋状态,否则就处于平静状态。当神经元处于兴奋状态时,下一秒它会向其他神经元传送信号,信号的强度为 C i C_i Ci。如此.在输入层神经元被激发之后,整个网络系统就在信息传输的推动下进行运作。 现在,给定一个神经网络,及当前输入层神经元的状态( C i C_i Ci),要求你的程序运算出最后网络输出层的状态。

输入格式

输入第一行是两个整数 n ( 1 ≤ n ≤ 20 ) (1 \leq n \leq 20) 1n20和 p。接下来 n 行,每行两个整数,第 i+1行是神经元 i 最初状态和其阈值( U i U_i Ui),非输入层的神经元开始时状态必然为 0。再下面 P P P 行,每行由两个整数 i , j i,j i,j及一个整数 W i j W_{ij} Wij,表示连接神经元 ii、jj 的边权值为 W i j W_{ij} Wij

输出格式

输出若干行,每行有两个整数,分别对应一个神经元的编号,及其最后的状 态,两个整数间以空格分隔。仅输出最后状态非零的输出层神经元状态,并且按照编号由小到大顺序输出!

若输出层的神经元最后状态均为 0 0 0,则输出 N U L L NULL NULL

解题思路

权值的传递过程如何

拓扑排序

拓扑排序:对一个有向无环图G进行拓扑排序,是将G中所有顶点排成一个线性序列,使得图中任意一对顶点u和v,若边 < u , v > ∈ E ( G ) <u,v>∈E(G) <u,v>∈E(G),则u在线性序列中出现在v之前。通常,这样的线性序列称为满足拓扑次序(Topological Order)的序列,简称拓扑序列。
简单的说,由某个集合上的一个偏序得到该集合上的一个全序
总览:从入度为0的点开始遍历,一直到出度为0的点。
思路分步:
1、首先输入时确定是否为输入层,非输入层可以直接在这里减去U。
2、根据公式,要求一个点的权值C,就要求出所有的C[j]*W[i,j]。
3、所有的节点的权值是从他的上一个节点推过来的,根据公式求权值。通过拓扑排序,C[i]的值简单地累加。文章来源地址https://www.toymoban.com/news/detail-499063.html

AC Code

Python3

# -*- coding: utf-8 -*-
# @Author : BYW-yuwei
# @Software: python3.8.6
N = 110
P = 100001
edges =[0 for _ in range(P)]
head = [0 for _ in range(N)]
U = [0 for _ in range(N)]
C = [0 for _ in range(N)]
in_node = [0 for _ in range(N)]
out_node = [0 for _ in range(N)]
num_edges = 1

def add_edge(u,v,w):
    global num_edges
    edges[num_edges] = [head[u],v,w] 
    head[u] = num_edges
    num_edges += 1

n,p = map(int,input().split())
for i in range(n):
    C[i],U[i] = map(int,input().split())
    if C[i] == 0:
        C[i] -= U[i]
for i in range(p):
    u,v,w = map(int,input().split())
    add_edge(u,v,w)
    in_node[v]+=1
    out_node[u]+=1
    
def topologicalSort():
    queue = []
    for i in  range(1,n+1):#从1编号
        if in_node[i]==0:
            queue.append(i)

    while queue:
        u = queue.pop(0)
        i = head[u]
        while i:
            v = edges[i][1]
            in_node[v]=in_node[v]-1
            if in_node[v] ==0:
                queue.append(v)
            if C[u-1]>0:
                C[v-1]+= edges[i][2]*C[u-1]
            i = edges[i][0]

def solve():
    topologicalSort()
    tag = 1
    for i in range(n):
        if C[i] > 0 and out_node[i+1]==0:
            print(i+1,C[i])
            tag = 0
    if tag:
        print("NULL")
solve()            

到了这里,关于拓扑排序:神经网络的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 神经网络基础-神经网络补充概念-30-搭建神经网络块

    搭建神经网络块是一种常见的做法,它可以帮助你更好地组织和复用网络结构。神经网络块可以是一些相对独立的模块,例如卷积块、全连接块等,用于构建更复杂的网络架构。

    2024年02月12日
    浏览(48)
  • 神经网络基础-神经网络补充概念-17-计算神经网络的输出

    计算神经网络的输出通常涉及前向传播(Forward Propagation)的过程,其中输入数据通过网络的层级结构,逐步被传递并变换,最终生成预测结果。下面我将为你展示一个简单的神经网络前向传播的示例。 假设我们有一个具有以下参数的简单神经网络: 输入层:2个神经元 隐藏

    2024年02月12日
    浏览(41)
  • 神经网络实验--卷积神经网络

    本实验主要为了掌握深度学习的基本原理;能够使用TensorFlow实现卷积神经网络,完成图像识别任务。 文章目录 1. 实验目的 2. 实验内容 3. 实验过程 题目一: 题目二: 实验小结讨论题 ①掌握深度学习的基本原理; ②能够使用TensorFlow实现卷积神经网络,完成图像识别任务。

    2024年02月06日
    浏览(53)
  • 神经网络与卷积神经网络

    全连接神经网络是一种深度学习模型,也被称为多层感知机(MLP)。它由多个神经元组成的层级结构,每个神经元都与前一层的所有神经元相连,它们之间的连接权重是可训练的。每个神经元都计算输入的加权和,并通过一个非线性激活函数进行转换,然后将结果传递到下一

    2024年02月10日
    浏览(45)
  • 神经网络基础-神经网络补充概念-40-神经网络权重的初始化

    神经网络权重的初始化是深度学习中的重要步骤,良好的权重初始化可以加速模型的训练收敛,提高模型的性能和稳定性。以下是一些常用的权重初始化方法: 零初始化(Zero Initialization):将权重初始化为零。然而,这种方法不太适合深层神经网络,因为它会导致所有神经

    2024年02月12日
    浏览(50)
  • 【神经网络】循环神经网络RNN和长短期记忆神经网络LSTM

    欢迎访问Blog总目录! 一文看尽RNN(循环神经网络) - 知乎 (zhihu.com) 一文搞懂RNN(循环神经网络)基础篇 - 知乎 (zhihu.com) 循环神经网络(Recurrent Neural Network, RNN)是一类以 序列 (sequence)数据为输入,在序列的演进方向进行 递归 (recursion)且所有节点(循环单元)按链式连

    2024年04月10日
    浏览(46)
  • 神经网络 04(神经网络的搭建)

    tf.Keras 中构建模有两种方式,一种是通过  Sequential  构建,一种是通过  Model  类构建。前者是按 一定的顺序对层进行堆叠 ,而后者可以用来 构建较复杂的网络模型 。首先我们介绍下用来构建网络的全连接层: units: 当前层中包含的神经元个数 Activation: 激活函数,relu,sig

    2024年02月09日
    浏览(29)
  • 卷积神经网络与前馈神经网络

    常见的人工神经网络结构 人工神经网络是一类由人工神经元组成的网络,常见的神经网络结构包括: 前馈神经网络(Feedforward Neural Network,FNN):最简单的神经网络结构,由一个输入层、一个输出层和若干个隐藏层组成,信号只能从输入层流向输出层,不允许在网络中形成回

    2023年04月26日
    浏览(42)
  • 神经网络基础-神经网络补充概念-53-将batch norm拟合进神经网络

    梯度消失问题的缓解:在深度神经网络中,梯度消失是一个常见的问题,特别是在深层网络中。批归一化通过在每个批次内对输入进行标准化,使得激活函数的输入分布更稳定,从而减轻了梯度消失问题,使得梯度更容易传播,促进了训练过程的稳定性和效率。 加速收敛:由

    2024年02月12日
    浏览(30)
  • 《神经网络入门》神经网络的思想 (一)

    我们知道神经网络是一个模拟人脑的数学建模,首先我们来了解一下生物神经元是怎么工作的。 人的大脑是由非常多神经元相互连接形成的网络构成的。一个神经元,可以从其他神经元接收信号,也可以向其他神经元发送信号。 神经元由细胞体、树突、轴突三个主要部分构

    2024年04月09日
    浏览(47)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包