创建脉冲神经网络(一)

这篇具有很好参考价值的文章主要介绍了创建脉冲神经网络(一)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

我根据原来的分布式的设计,实现了分布式仿真的方法,但是对各种数据的存储一直不太熟练,所有的设计都记录在

分布式仿真思考(三)成功运行啦,哈哈哈-CSDN博客

在这里,我将每个进程都存储这全局的邻接表,本地邻接表,如下

	// 神经元的邻接表
	std::vector<std::vector<int>> global_adjacency;
	// 全局每个神经元的出度
	std::vector<int> global_out_degree;
	// 本地的邻接表
	std::vector<std::vector<int>> local_adjcency;
	//本地的突触集合
	std::vector<int> local_node_gids;

在实例化神经元和突触时:

     //实例化本地神经元,加入到local_nodes集合
    for (int i = 0; i < local_node_gids.size(); i++)
    {
        Neuron* node = new Neuron(realDist(gen), local_node_gids[i]);
        local_nodes.push_back(node);
    }
     //实例化本地突触,并加入local_synapases
    for (int ii = 0; ii < local_adjcency.size(); ii++)
    {
        if (local_adjcency.size()==0)
        {
            continue;
        }
        for (int jj = 0; jj < local_adjcency[ii].size(); jj++)
        {
            // 获取突触后神经元的位置
            auto it = std::find(local_node_gids.begin(), local_node_gids.end(), local_adjcency[ii][jj]);
            // 转成本地神经元的下标
            int idx = std::distance(local_node_gids.begin(),it);
            
            Synapse* synapase = new Synapse(min_delay, 0.2, local_nodes[idx]);
            local_synapases[ii].push_back(synapase);
        }
    }

看一看出来在创建的过程中消耗了大部分的内存,所我决定重新设计一下,以减少内存的使用,其实问题最大的难点依旧在,脉冲的传输阶段,需要准确判断脉冲需要发送的位置,我之前的做法是这样

/// <summary>
/// 判断本地脉冲和远程脉冲
/// 该神经元存在本地脉冲,存在则返回ture
/// 该神经元存在远程脉冲,返回远程脉冲所在的进程id集合
/// </summary>
/// <param name="is_post_syn">是否存在本地脉冲</param>
/// <param name="remote_proc_id">远程脉冲所在的进程id集合</param>
void judge_remote_pluses(const int sender_gid, bool& is_local,std::vector<int>& remote_proc_id);
void ConnectionManager::judge_remote_pluses(const int sender_gid,bool& is_local, std::vector<int>& remote_proc_id)
{
 
    // 获取分区情况
     std::vector<int> partition(0);
    // 本进程的id
    int rank_ = kernel().mpi_manager.get_rank();

    if (local_adjcency[sender_gid].size() == global_adjacency[sender_gid].size())
    {
        is_local = true;
    }
    else if(local_adjcency[sender_gid].size() < global_adjacency[sender_gid].size())
    {
        for (int ii = 0; ii < global_adjacency[sender_gid].size(); ii++)
        {

            if (partition[global_adjacency[sender_gid][ii]] == rank_)
            {
                is_local = true;
            }
            else
            {
                remote_proc_id.push_back(partition[global_adjacency[sender_gid][ii]]);
            }
        }
    }
}

那时候我就在想,这些事情是不是可以提前做,避免脉冲的脉冲的判断,比如定义一个std::unordered_map<int, std::vector<int>> communication_diagram这样一个通信图, key值是神经元的gid,value代表需要通信的进程id集合。

还有一点需要考虑,比如考虑如下种群创建实例

创建脉冲神经网络(一),分布式模拟脉冲神经网络,神经网络,人工智能,深度学习

而不同population之间的创建需要设置突触的初始参数

	// 神经元群落集合 种群中包括该神经元的所有初始参数
	std::vector<Population *> populations;
	// 突触参数集合 col代表前种群id row代表后种群id syn_params[i][j]表示连接这两个种群的参数
	std::vector<std::vector< SynapseParams *>> syn_params;
	// 神经元的邻接表
	std::vector<std::vector<int>> global_adjacency;
	// 全局每个神经元的出度
	std::vector<int> global_out_degree;

那么创建种群的代码如下

int ConnectionManager::create(int num, const NeuronParams& nparams)
{ 

    Population* pops = new Population(nparams);
    pops->set_num_neurons(num);

    设置神经元的gid
    int min_gid = tail_pointer;
    int max_gid = tail_pointer + num;
    for (int ii = min_gid, jj = 0; ii < max_gid; ii++, jj++)
    {
        pops->add_neuron_gid(jj, ii);
    }
    tail_pointer = max_gid;
 
    // 调整全局邻接矩阵的大小
    global_adjacency.resize(tail_pointer);
    // 设置每个突触的出度
    global_out_degree.resize(tail_pointer);
    //将种群加入种群集合
    populations.push_back(pops);
    //设置突触参数大小
    syn_params.resize(populations.size(), std::vector<SynapseParams*>(populations.size()));

    return pops->get_group_id();
}

明天计划写connect的代码文章来源地址https://www.toymoban.com/news/detail-756453.html

到了这里,关于创建脉冲神经网络(一)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 人工智能(pytorch)搭建模型10-pytorch搭建脉冲神经网络(SNN)实现及应用

    大家好,我是微学AI,今天给大家介绍一下人工智能(pytorch)搭建模型10-pytorch搭建脉冲神经网络(SNN)实现及应用,脉冲神经网络(SNN)是一种基于生物神经系统的神经网络模型,它通过模拟神经元之间的电信号传递来实现信息处理。与传统的人工神经网络(ANN)不同,SNN 中的

    2024年02月08日
    浏览(31)
  • 在Google Kubernetes集群创建分布式Jenkins(一)

    因为项目需要,在GKE的集群上需要创建一个CICD的环境,记录一下安装部署一个分布式Jenkins集群的过程。 分布式Jenkins由一个主服务器和多个Agent组成,Agent可以执行主服务器分派的任务。如下图所示: 如上图,Jenkins Agent可以运行不同的操作系统,执行主服务器分派的编译打包

    2024年02月05日
    浏览(28)
  • 【神经网络结构可视化】PlotNeuralNet的安装、测试及创建自己的神经网络结构可视化图形

    1、下载MikTeX 下载链接: MikTeX ( https://miktex.org/download ) 2、下载Git bash 下载链接: Git bash ( https://git-scm.com/download/win ) 3、下载PlotNeuralNet 下载链接: PlotNeuralNet ( https://github.com/HarisIqbal88/PlotNeuralNet?tab=readme-ov-file ) 1、解压PlotNeuralNet-master.zip 将下载的PlotNeuralNet-master.zip解压到当前

    2024年04月25日
    浏览(36)
  • 分布式软件架构——内容分发网络

    其基本思路是尽可能避开互联网上有可能影响数据传输速度和稳定性的瓶颈和环节,使内容传输得更快、更稳定。通过在网络各处放置节点服务器所构成的在现有的互联网基础之上的一层智能虚拟网络,CDN系统能够实时地根据网络流量和各节点的连接、负载状况以及到用户的

    2024年02月15日
    浏览(35)
  • VMware创建Linux虚拟机之(四)ZooKeeper&HBase完全分布式安装

    Hello,world!    🐒本篇博客使用到的工具有:VMware16 ,Xftp7 若不熟悉操作命令,推荐使用带GUI页面的CentOS7虚拟机 我将使用带GUI页面的虚拟机演示 虚拟机(Virtual Machine) 指通过软件模拟的具有完整硬件系统功能的、运行在一个完全隔离环境中的完整计算机系统。在实体计算

    2024年02月07日
    浏览(33)
  • JS 实现区块链分布式网络

    这里主要 JS 实现区块链 实现的部分继续下去,对 Blockchain 这个对象有一些修改,如果使用 TS 的话可能要修改对应的 interface,但是如果是 JS 的话就无所谓了。 需要安装的依赖有: express body-parser 现在的 express 已经不内置 body-parser,需要作为单独的依赖下载 request 不下载会报

    2024年02月06日
    浏览(33)
  • 网络爬虫:如何有效的检测分布式爬虫

    分布式爬虫是一种高效的爬虫方式,它可以将爬虫任务分配给多个节点同时执行,从而加快爬虫的速度。然而,分布式爬虫也容易被目标网站识别为恶意行为,从而导致IP被封禁。那么,如何有效地检测分布式爬虫呢?本文将为您一一讲解。 检查请求头 我们可以检查分布式爬

    2024年02月09日
    浏览(28)
  • RPC分布式网络通信框架(二)—— moduo网络解析

    网络部分,包括寻找rpc服务主机,发起rpc调用请求和响应rpc调用结果,使用muduo网络和zookeeper 服务配置中心 (专门做服务发现) 其中MprpcApplication类负责框架的一些初始化操作,注意去除类拷贝构造和移动构造函数(实现单例模式)。其中项目还构建了MprpcConfig类负责读取服

    2024年02月17日
    浏览(38)
  • 再见卷积神经网络,使用 Transformers 创建计算机视觉模型

    本文旨在介绍 / 更新 Transformers 背后的主要思想,并介绍在计算机视觉应用中使用这些模型的最新进展。 读完这篇文章,你会知道…… 为什么 Transformers 在 NLP 任务中的表现优于 SOTA 模型。 Transformer 模型的工作原理 这是卷积模型的主要限制。 Transformers 如何克服卷积模型的限

    2024年02月02日
    浏览(38)
  • MATLAB 创建神经网络模型的patternnet和newff函数区别

    patternnet 和 newff 都是在MATLAB中用于创建人工神经网络的函数,但它们有一些区别和适用场景。 网络类型 : patternnet :用于创建多层感知器(MLP)类型的神经网络,MLP是一种前馈神经网络,由输入层、若干隐藏层和输出层组成。它适用于各种问题,包括分类和回归任务。 new

    2024年02月15日
    浏览(37)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包