Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 客美(北京)科技有限公司呼延连峥获国家专利权

客美(北京)科技有限公司呼延连峥获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉客美(北京)科技有限公司申请的专利一种高效GPU算力服务器资源优化方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120147101B

龙图腾网通过国家知识产权局官网在2025-10-03发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510145314.9,技术领域涉及:G06T1/20;该发明授权一种高效GPU算力服务器资源优化方法及系统是由呼延连峥设计研发完成,并于2025-02-10向国家知识产权局提交的专利申请。

一种高效GPU算力服务器资源优化方法及系统在说明书摘要公布了:本发明提供一种高效GPU算力服务器资源优化方法及系统,涉及数据处理技术领域,所述方法包括:对GPU算力服务器的硬件配置进行初步评估,以得到评估结果,包括GPU型号、数量和内存容量;根据评估结果配置初始训练参数,包括Batch大小;基于评估结果,结合当前训练任务的复杂度和GPU的并行处理能力,动态调整Batch大小,以得到调整结果;根据调整结果,对DataLoader进行性能优化,以得到优化后的数据流动情况;根据优化后的数据流动情况,调整模型架构,使其与GPU的并行处理能力匹配,调整模型架构包括调整模型的层数、宽度和卷积核大小,以得到调整后模型。本发明可以提升资源的初始利用效率。

本发明授权一种高效GPU算力服务器资源优化方法及系统在权利要求书中公布了:1.一种高效GPU算力服务器资源优化方法,其特征在于,所述方法包括: 步骤1,对GPU算力服务器的硬件配置进行初步评估,以得到评估结果,包括GPU型号、数量和内存容量,包括:定义一个评估函数,用于量化不同硬件配置方案的性能;确定硬件配置的可选范围,包括不同型号的GPU、GPU的数量范围、内存容量的范围,硬件配置的可选范围构成了解空间,即模拟退火算法中可搜索到的所有配置方案;设置模拟退火算法的初始温度,设定温度下降的速度以及终止时的温度;在每个温度下,设定模拟退火算法新解的次数;从配置空间中随机选择一个初始硬件配置方案作为当前解;在当前温度下,生成当前解的一个邻近解;使用评估函数计算邻近解的性能;根据Metropolis准则决定是否接受邻近解作为新的当前解,迭代操作,直到达到当前温度下的迭代次数,降低温度,重复整个迭代过程,直到温度降至终止温度,以得到模拟退火算法输出的最终的硬件配置方案;根据评估结果配置初始训练参数,包括Batch大小; 步骤2,基于评估结果,结合当前训练任务的复杂度和GPU的并行处理能力,动态调整Batch大小,以得到调整结果,包括:根据评估函数的结果,以获取GPU的计算能力;根据GPU的计算能力,设定一个初始的Batch,在训练过程中,根据实时监控的指标,动态调整Batch大小,具体如下:如果GPU利用率明低于其最大能力,则逐步增加Batch;如果训练过程中出现内存不足,则减小Batch; 步骤3,根据调整结果,对DataLoader进行性能优化,以得到优化后的数据流动情况; 步骤4,根据优化后的数据流动情况,调整模型架构,使其与GPU的并行处理能力匹配,调整模型架构包括调整模型的层数、宽度和卷积核大小,以得到调整后模型,包括:评估当前模型在处理优化后的数据流时的性能,包括训练速度、内存占用和准确率指标;分析优化后DataLoader提供的数据批次大小、传输速度以及GPU的利用率;根据分析结果,定位模型架构中存在的性能瓶颈;设定调整目标;根据GPU的并行处理能力和数据流动情况,调整模型的层数;使用ResNet风格改善信息流和梯度流,调整卷积层的通道数;在不同层使用不同宽度的卷积核,以捕获不同尺度的特征;根据任务需求和GPU特性选择对应的卷积核大小; 对每次调整后的模型进行实验验证,以得到验证结果;根据验证结果,迭代地调整模型架构,直至达到效率平衡,以得到调整后模型; 步骤5,根据调整后模型以及训练过程中的实时负载情况,动态调整CPU、GPU、内存和存储资源的分配,以使各组件之间协同工作,包括:根据监控数据,识别系统的性能瓶颈;基于历史数据和当前负载情况,预测未来的资源需求;根据CPU使用率,动态调整数据预处理和模型训练任务的并行度;根据GPU利用率,调整批次大小;监控内存占用情况,根据内存使用情况,动态调整数据缓存策略;根据存储IO等待时间,优化数据读取和写入策略;利用Docker技术,实现资源的动态分配和隔离;收集训练过程中的性能指标,根据性能反馈和资源使用情况,不断迭代优化资源分配策略。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人客美(北京)科技有限公司,其通讯地址为:102218 北京市昌平区东小口镇天通中苑二区21号楼2层2194;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由AI智能生成
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。