Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 复旦大学戴维获国家专利权

复旦大学戴维获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉复旦大学申请的专利基于GPU的大规模皮层脉冲神经网络异步并行仿真算法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116739062B

龙图腾网通过国家知识产权局官网在2026-01-09发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310537186.3,技术领域涉及:G06N3/065;该发明授权基于GPU的大规模皮层脉冲神经网络异步并行仿真算法是由戴维;林伟;孙毅设计研发完成,并于2023-05-13向国家知识产权局提交的专利申请。

基于GPU的大规模皮层脉冲神经网络异步并行仿真算法在说明书摘要公布了:本发明属神经网络仿真模拟技术领域,具体为基于GPU的大规模皮层脉冲神经网络异步并行仿真算法。本发明利用计算显卡的多线程和纹理内存的优势,结合生物大脑接受外部刺激的通用形式,以及皮层中神经元之间普遍的连接模式,设计GPU与CPU异步并行的算法框架;GPU负责神经元动力学方程的并行演化,以及局域网络内各向同性连接的分块式并行计算,CPU负责处理各向异性的长程连接;并可兼容不同的神经元动力学方程和可塑性学习规则。与现有技术相比,本发明可以有效提升仿真速度,为单个计算节点提供仿真模拟生物大脑皮层中千万级大规模脉冲神经网络的工具,并适用于单节点多显卡以及多节点多显卡的分布式运算模型。

本发明授权基于GPU的大规模皮层脉冲神经网络异步并行仿真算法在权利要求书中公布了:1.一种基于GPU的大规模皮层脉冲神经网络异步并行仿真算法,其特征在于,利用计算显卡的多线程和纹理内存的优势,结合生物大脑接受外部刺激的通用形式,以及皮层中神经元之间普遍的连接模式,设计并实现GPU与CPU异步并行的算法框架;其中,GPU负责神经元动力学方程的并行演化,以及局域网络内各向同性连接的分块式并行计算,CPU负责处理各向异性的长程连接;并可兼容不同的神经元动力学方程和可塑性学习规则,提高连接矩阵和脉冲信号传递在GPU显存中的存储和计算效率;具体步骤为: 1外界输入刺激的预处理,包括: 1.1将第i时间步长ti≤t<ti+1内具有一、二或三维信号的输入刺激强度映射到二维三通道的纹理显存上;由于纹理显存有不同的图层,第三维可作为离散化的一个维度,或者作为时序输入刺激在不同时刻下的数据;因此,纹理显存用于处理基本的外界输入信号,包括:视觉,听觉,触觉,肢体角度感; 1.2创建处理对应感觉的大脑核团前馈模型,其输出脉冲信号作为皮层神经元的输入: 1.2.1利用纹理显存的线性插值特性,在每个核团神经元对应的感受野范围内对时空输入进行连续采样,获得采样后的输入刺激强度,指离散化后的二维或三维坐标值; 1.2.2利用GPU的BlockReduce并行加法算法,对输入采样与每个核团神经元的卷积核作并行卷积操作: , 1.2.3将卷积值c通过电生理实验中得到的核团神经元非线性增益曲线函数Gc,计算得到其放电率随时间的变化,作为时变泊松过程的频率; 1.2.4通过泊松过程,完成时变放电率Gc到放电时刻tsp的转换;利用纹理显存的二维读取性质,将核团神经元在外界输入空间内对应的位置向量映射到纹理显存上,记录其二维序号,并在每个时间步长开始时更新对应核团神经元的tsp,若无放电,则计为0; 2网络连接的预生成,具体包括: 2.1前馈连接:基于解剖学实验数据直接生成核团到皮层神经元的前馈连接,或者先初始化连接,在前馈突触中加入学习规则,构成有可塑性的前馈连接; 2.2皮层内连接:基于解剖学实验数据,大脑皮层中每个脑区普遍分为6层,每层神经元的层内连接和与其他层平面内的连接模式都包括短程和长程两种,具体地: 2.2.1每层各自确定神经元在二维空间内的位置,并对二维空间进行局域分块,设共分为n个局域块,每个局域块内神经元数量为m,控制为32的倍数,保证并行规模m×n等于总神经元数量; 2.2.2确定各层内和各层间神经元的短程连接和长程连接范围,计算局域块中心距离和最大半径,记录每个在短程和长程连接范围内相邻局域块的序号; 2.2.3每个局域块与短程连接范围内的其它相邻的局域块构成邻接矩阵,用于在GPU显存中存储短程连接强度;对于数量相对较少的长程连接强度,则以神经元序号向量和连接强度向量的形式存储在CPU内存中; 3并行演化单神经元模型,按分块存储脉冲信号,包括: 3.1确认大规模神经网络中所使用的单神经元模型;若使用多舱室模型,则局域块内原本的神经元行序号标记代表局域块内神经元数量,列序号则代表每个神经元的舱室数;同时固定演化该模型动力学方程的数值方法,使其精度与确定脉冲放电时刻算法的时间精度一致; 3.2确认脉冲信号基于突触电导或电流随时间变化的形式; 3.3对于输入层神经元,先根据步骤2.1读取对应核团前馈神经元的脉冲放电输出,根据步骤3.2计算来自于核团部分的输入电导;否则直接演化步骤3.1中的动力学方程,判断对应神经元是否在本步长内发生脉冲放电,并估算其放电时刻,估算时间精度和演化动力学方程的数值方法一致; 3.4按分块记录放电神经元的序号和放电时刻到数组:根据步骤3.2计算每个脉冲信号在下一时刻的单位响应;由于一个时间步长小于或等于1毫秒,单个局域分块中神经元脉冲数量较少,直接用CUDA内置原子性加和函数记录总脉冲数量,并赋值每个在本时间步长放电的神经元各自在数组内的序号,并行写入放电时刻; 4脉冲信号的传递,具体包括: 4.1短程连接:由GPU计算,使用与3.1相同的神经元编号,首先遍历第i个局域块与短程连接范围内各局域块的邻接矩阵ij,再遍历读取3.3中所记录的第j个局域块中在本步长中脉冲放电的神经元k产生的单位响应,与邻接矩阵ij中各自第k列的连接强度并行作乘法计入自身的电导电流,邻接矩阵行标对应第i个局域块中的神经元编号; 4.2、长程连接:遍历在当前步长有脉冲放电,且在有长程连接的神经元,读取步骤2.2.3中记录的长程连接向量中对应的连接强度乘以单位响应计入到突触后神经元的电导电流中; 4.3步骤4.1和步骤4.2异步进行,两者完成后,通过GPU,使用与步骤3.1相同的并行参数,将每个神经元的长程输入响应合并到短程输入响应中,并行更新每个神经元在下一时刻的电导电流。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人复旦大学,其通讯地址为:200433 上海市杨浦区邯郸路220号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。