如果你已经安装了WebUI一键启动懒人包,但发现它只使用CPU而不使用你的AMD显卡,以下是一些步骤来帮助配置WebUI以利用你的AMD显卡:
1. 安装必要的驱动程序
确保你的AMD显卡驱动程序是最新的。这可以通过AMD的官方驱动程序下载页面完成。
2. 安装ROCm
对于AMD显卡,你可能需要安装ROCm(Radeon Open Compute),这是一个开源的GPU加速平台,类似于Nvidia的CUDA。ROCm支持AI和深度学习应用。
安装ROCm:wget -qO - https://repo.radeon.com/rocm/rocm.gpg.key | sudo apt key add -
echo 'deb [arch=amd64] https://repo.radeon.com/rocm/debian/ xenial main' | sudo tee /etc/apt/sources.list.d/rocm.list
sudo apt update
sudo apt install rocm-dkms
3. 安装MIOpen和HSA-Runtime
这些是ROCm的一部分,用于提供深度学习库和运行时支持。
安装MIOpen:sudo apt install miopen-hip-hcc hip-hcc-dkms
4. 配置环境变量
确保ROCm的环境变量正确设置。通常,安装ROCm时会自动完成这一步,但你可以检查并确保以下环境变量被添加到你的 .bashrc 或 .profile 文件中:
export PATH=/opt/rocm/bin:$PATH
export LD_LIBRARY_PATH=/opt/rocm/lib:$LD_LIBRARY_PATH
export HIP_PATH=/opt/rocm
5. 安装PyTorch和TorchVision
使用ROCm支持的PyTorch和TorchVision版本。这些库允许你的应用程序利用GPU进行计算。
安装PyTorch:pip install torch torchvision
6. 编辑WebUI启动脚本
根据你的懒人包的具体情况,你可能需要编辑启动脚本,确保它使用ROCm和MIOpen。
编辑 launch.py :import torch
import torch.backends.cudnn as cudnn
# 确保使用ROCm
torch.set_default_tensor_type('torch.FloatTensor')
cudnn.benchmark = True
# 启动WebUI
# ...
7. 测试GPU支持
在终端中运行以下命令来测试PyTorch是否正确使用你的AMD显卡:
python -c "import torch; print(torch.cuda.is_available())"