AI智能摘要
想在NVIDIAJetsonOrin上解锁原生PyTorch的完整性能吗?官方的预编译版本可能无法充分利用其硬件潜力。本文将为你提供一份详尽的whl自编译指南,从关键环境配置(CUDA 12.6、cuDNN 9.3)到核心编译参数(如开启Flash Attention以优化Transformer推理),手把手教你编译出专为Orin架构(sm_87)优化的PyTorch 2.7.0 wheel包。告别通用版本的限制,获得最适合你边缘计算设备的深度学习框架。
— AI 生成的文章内容摘要

基础信息

类别关键参数记录值备注
基础工具CMake / GCC4.2.1 / 11.4.0建议 CMake > 3.20
PythonVersion / Path3.12.12 / .venv确保在虚拟环境下编译
PyTorchVersion2.7.0
JetPackVersion6.2.1需对应 JetPack 版本
GPU 架构CUDA_ARCHsm_87 (Orin)决定硬件兼容性
C++ ABICXX11_ABI1 (ON)影响第三方库链接
加速库Flash AttentionON决定 Transformer 推理性能

构建步骤

拉取项目代码

git clone --recursive --branch v2.7.0 http://github.com/pytorch/pytorch
cd pytorch
sudo apt update && sudo apt-get install python-pip cmake libopenblas-dev libopenmpi-dev -y

创建虚拟环境

uv venv .venv --python 3.12
uv pip install -r requirements.txt
uv pip install scikit-build

构建

export PYTORCH_BUILD_VERSION=2.7.0
export PYTORCH_BUILD_NUMBER=1
export TORCH_CUDA_ARCH_LIST="8.7"

export USE_NCCL=0             # 关闭 Jetson 用不上的模块
export USE_DISTRIBUTED=0    
export USE_QNNPACK=0  
export USE_PYTORCH_QNNPACK=0  

export CUDA_HOME=/usr/local/cuda
export PATH=$CUDA_HOME/bin:$PATH
export LD_LIBRARY_PATH=$CUDA_HOME/lib64:$LD_LIBRARY_PATH
export USE_PRIORITIZED_TEXT_FOR_LD=1 

export MAX_JOBS=$(nproc)
python3 setup.py bdist_wheel

whl 输出路径

./pytorch/dist/torch-2.7.0-cp312-cp312-linux_aarch64.whl

安装

uv pip install ./dist/torch-2.7.0-cp312-cp312-linux_aarch64.whl

测试验证

python -c"import torch
print(torch.cuda.is_available())"