PatrickStar 分布式深度学习训练工具开源项目

我要开发同款
匿名用户2021年10月29日
165阅读

技术信息

开源地址
https://github.com/Tencent/PatrickStar
授权协议
BSD

作品详情

PatrickStar是一款腾讯开发的分布式深度学习训练工具,它的设计目标是支持以GPT、Bert为代表的超大预训练模型训练。

用法

PatrickStar基于PyTorch,这使得迁移pytorch项目变得容易。以下是PatrickStar的示例:

frompatrickstar.rutimeimportiitialize_egiecofig={"optimizer":{"type":"Adam","params":{"lr":0.001,"betas":(0.9,0.999),"eps":1e-6,"weight_decay":0,"use_hybrid_adam":True,},},"fp16":{#lossscalerparams"eabled":True,"loss_scale":0,"iitial_scale_power":2**3,"loss_scale_widow":1000,"hysteresis":2,"mi_loss_scale":1,},"default_chuk_size":64*1024*1024,"release_after_iit":True,"use_cpu_embeddig":False,}defmodel_fuc():#MyModelisaderivedclassfortorch..ModulereturMyModel(...)model,optimizer=iitialize_egie(model_fuc=model_fuc,local_rak=0,cofig=cofig)...fordataidataloader:optimizer.zero_grad()loss=model(data)model.backward(loss)optimizer.step()

使用与 DeepSpeed配置JSON 相同的cofig格式,主要包括优化器、损失缩放器和一些PatrickStar特定配置的参数。

引用我们@article{fag2021patrickstar,title={PatrickStar:ParallelTraiigofPre-traiedModelsviaaChuk-basedMemoryMaagemet},author={Fag,JiaruiadYu,YagadZhu,ZiliadLi,ShegguiadYou,YagadZhou,Jie},joural={arXivprepritarXiv:2108.05818},year={2021}}

功能介绍

PatrickStar 是一款腾讯开发的分布式深度学习训练工具,它的设计目标是支持以 GPT、Bert 为代表的超大预训练模型训练。 用法 PatrickStar 基于 PyTorch,这使得迁...

声明:本文仅代表作者观点,不代表本站立场。如果侵犯到您的合法权益,请联系我们删除侵权资源!如果遇到资源链接失效,请您通过评论或工单的方式通知管理员。未经允许,不得转载,本站所有资源文章禁止商业使用运营!
下载安装【程序员客栈】APP
实时对接需求、及时收发消息、丰富的开放项目需求、随时随地查看项目状态

评论