看啥推荐读物
专栏名称: GiantPandaCV
专注于机器学习、深度学习、计算机视觉、图像处理等多个方向技术分享。团队由一群热爱技术且热衷于分享的小伙伴组成。我们坚持原创,每天一到两篇原创技术分享。希望在传播知识、分享知识的同时能够启发你,大家一起共同进步(・ω<)☆
目录
今天看啥  ›  专栏  ›  GiantPandaCV

聊聊 PyTorch 中新的Distributed API (二)

GiantPandaCV  · 公众号  · 3D  · 2024-03-11 11:43
作者丨无恶不作来源丨https://zhuanlan.zhihu.com/p/681775092编辑丨GiantPandaCV下面结合 PyTorch conference (Composable Distributed PT2(D)) 和 PyTorch 2.2 release 做介绍。总体来说相对2.0时代初期的API有了较大变化,新的通信方式对于初学者总体上更加友好。DTensorDistributedTensor 又叫 DTensor,是基础分布式 tensor,可用于 tensor 级别的切分和计算,DTensor有 2 个重要概念:DeviceMeshDeviceMesh是一种抽象表示全局拓扑关系。图1 DeviceMeshDTensor placement:DTensor placement是tensor的分布式表示方式,有两种类型:shard, replicate。图2 DTensor placementDTensor是torch.Tensor的子类,可以通过from_local和to_local和tensor进行转化,也可以通过Reshard和Redistribute进行分布式转换。提供高阶API,转换tensor/module:1. distribute_tensor(tensor)2. distribute_module(module)2. TP and User API张量并行可以根据自定义module接口进行转换,这里主要介绍 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照