十分钟教会你玩转本地无限制AI,偷偷珍藏系列!打开新世界的大门|NSFW|...

   日期:2024-12-26    作者:13pnx 移动:http://3jjewl.riyuangf.com/mobile/quote/40911.html

如果你已经安装了WebUI一键启动懒人包,但发现它只使用CPU而不使用你的AMD显卡,以下是一些步骤来帮助配置WebUI以利用你的AMD显卡:

十分钟教会你玩转本地无限制AI,偷偷珍藏系列!打开新世界的大门|NSFW|...

1. 安装必要的驱动程序

确保你的AMD显卡驱动程序是最新的。这可以通过AMD的官方驱动程序下载页面完成。

2. 安装ROCm

对于AMD显卡,你可能需要安装ROCm(Radeon Open Compute),这是一个开源的GPU加速平台,类似于Nvidia的CUDA。ROCm支持AI和深度学习应用。

安装ROCm:wget -qO - https://repo.radeon.com/rocm/rocm.gpg.key | sudo apt key add -

echo 'deb [arch=amd64] https://repo.radeon.com/rocm/debian/ xenial main' | sudo tee /etc/apt/sources.list.d/rocm.list

sudo apt update

sudo apt install rocm-dkms

3. 安装MIOpen和HSA-Runtime

这些是ROCm的一部分,用于提供深度学习库和运行时支持。

安装MIOpen:sudo apt install miopen-hip-hcc hip-hcc-dkms

4. 配置环境变量

确保ROCm的环境变量正确设置。通常,安装ROCm时会自动完成这一步,但你可以检查并确保以下环境变量被添加到你的 .bashrc 或 .profile 文件中:

export PATH=/opt/rocm/bin:$PATH

export LD_LIBRARY_PATH=/opt/rocm/lib:$LD_LIBRARY_PATH

export HIP_PATH=/opt/rocm

5. 安装PyTorch和TorchVision

使用ROCm支持的PyTorch和TorchVision版本。这些库允许你的应用程序利用GPU进行计算。

安装PyTorch:pip install torch torchvision

6. 编辑WebUI启动脚本

根据你的懒人包的具体情况,你可能需要编辑启动脚本,确保它使用ROCm和MIOpen。

编辑 launch.py :import torch

import torch.backends.cudnn as cudnn

# 确保使用ROCm

torch.set_default_tensor_type('torch.FloatTensor')

cudnn.benchmark = True

# 启动WebUI

# ...

7. 测试GPU支持

在终端中运行以下命令来测试PyTorch是否正确使用你的AMD显卡:

python -c "import torch; print(torch.cuda.is_available())"


特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


举报收藏 0评论 0
0相关评论
相关最新动态
推荐最新动态
点击排行
{
网站首页  |  关于我们  |  联系方式  |  使用协议  |  隐私政策  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号