跟代码执行流程,读Megatron源码megatron初始化脚本initialize.py之initialize_megatron()分布式环境初始化




import os
import torch
 
def is_megatron_available():
    return True
 
def get_torch_cuda_version():
    return torch.version.cuda
 
def get_int(val):
    try:
        return int(val)
    except ValueError:
        return val
 
def initialize():
    # 检查Megatron是否可用
    if not is_megatron_available():
        raise ImportError("Megatron is not available.")
 
    # 检查PyTorch和CUDA版本是否兼容
    torch_cuda_version = get_torch_cuda_version()
    if torch_cuda_version != 'N/A':
        from megatron import megatron_version_required
        from pkg_resources import parse_version
        if parse_version(torch_cuda_version) < parse_version(megatron_version_required[0]):
            raise EnvironmentError(
                f"Megatron requires PyTorch CUDA version >= {megatron_version_required[0]}."
                f" But found version {torch_cuda_version}."
            )
 
    # 设置OMP_NUM_THREADS环境变量
    omp_num_threads = os.getenv('OMP_NUM_THREADS', '1')
    os.environ['OMP_NUM_THREADS'] = str(get_int(omp_num_threads))
 
    # 设置MKL_NUM_THREADS环境变量
    mkl_num_threads = os.getenv('MKL_NUM_THREADS', '1')
    os.environ['MKL_NUM_THREADS'] = str(get_int(mkl_num_threads))
 
    # 设置NCCL参数
    nccl_max_rw_pairs = os.getenv('NCCL_MAX_RW_PAIRS', '16')
    os.environ['NCCL_MAX_RW_PAIRS'] = str(get_int(nccl_max_rw_pairs))
 
    # 设置TVM_NUM_THREADS环境变量
    tvm_num_threads = os.getenv('TVM_NUM_THREADS', '1')
    os.environ['TVM_NUM_THREADS'] = str(get_int(tvm_num_threads))
 
    # 设置NUMA_BIND环境变量
    numa_bind = os.getenv('NUMA_BIND', '1')
    os.environ['NUMA_BIND'] = str(get_int(numa_bind))
 
    # 设置TF32_FLUSH_TO_ZERO环境变量
    tf32_flush_to_zero = os.getenv('TF32_FLUSH_TO_ZERO', '1')
    os.environ['TF32_FLUSH_TO_ZERO'] = str(get_int(tf32_flush_to_zero))
 
    # 设置DD_BIDIRECTIONAL_INFERENCE环境变量
    dd_bidirectional_inference = os.getenv('DD_BIDIRECTIONAL_INFERENCE', '0')
    os.environ['DD_BIDIRECTIONAL_INFERENCE'] = str(get_int(dd_bidirectional_inference))
 
    # 设置GPU_DIRECT_FAST_PATH环境变量
    gpu_direct_fast_path = os.getenv('GPU_DIRECT_FAST_PATH', '1')
    os.environ['GPU_DIRECT_FAST_PATH'] = str(get_int(gpu_direct_fast_path))
 
    # 设置DISABLE_CUDA_AFFINITY环境变量
    disable_cuda_affinity = os.getenv('DISABLE_CUDA_AFFINITY', '0')
    os.environ['DISABLE_CUDA_AFFINITY'] = str(get_int(disable_cuda_affinity))
 
    #
最后修改于:2024年08月19日 09:27

评论已关闭

推荐阅读

DDPG 模型解析,附Pytorch完整代码
2024年11月24日
DQN 模型解析,附Pytorch完整代码
2024年11月24日
AIGC实战——Transformer模型
2024年12月01日
Socket TCP 和 UDP 编程基础(Python)
2024年11月30日
python , tcp , udp
如何使用 ChatGPT 进行学术润色?你需要这些指令
2024年12月01日
AI
最新 Python 调用 OpenAi 详细教程实现问答、图像合成、图像理解、语音合成、语音识别(详细教程)
2024年11月24日
ChatGPT 和 DALL·E 2 配合生成故事绘本
2024年12月01日
omegaconf,一个超强的 Python 库!
2024年11月24日
【视觉AIGC识别】误差特征、人脸伪造检测、其他类型假图检测
2024年12月01日
[超级详细]如何在深度学习训练模型过程中使用 GPU 加速
2024年11月29日
Python 物理引擎pymunk最完整教程
2024年11月27日
MediaPipe 人体姿态与手指关键点检测教程
2024年11月27日
深入了解 Taipy:Python 打造 Web 应用的全面教程
2024年11月26日
基于Transformer的时间序列预测模型
2024年11月25日
Python在金融大数据分析中的AI应用(股价分析、量化交易)实战
2024年11月25日
AIGC Gradio系列学习教程之Components
2024年12月01日
Python3 `asyncio` — 异步 I/O,事件循环和并发工具
2024年11月30日
llama-factory SFT系列教程:大模型在自定义数据集 LoRA 训练与部署
2024年12月01日
Python 多线程和多进程用法
2024年11月24日
Python socket详解,全网最全教程
2024年11月27日