当然可以!使用云主机进行AI绘画是一个非常强大且灵活的方案,尤其适合需要大量出图、训练自定义模型或本地电脑性能不足的用户。
下面我将为你提供一个从零开始、非常详细的指南,涵盖核心概念、三种主要方法、具体操作步骤以及优缺点分析。
1、解放本地资源:AI绘画(尤其是高分辨率或训练模型)需要强大的GPU(显卡),非常消耗算力,云主机提供了按需租用的高性能GPU,如NVIDIA A100, V100, RTX 4090等,让你无需购买昂贵的硬件。
2、环境配置灵活:你可以在云主机上随意安装任何AI绘画软件(如Stable Diffusion)、任何模型和插件,不会影响本地电脑的其他工作。
3、可扩展性与持久化:需要大量出图时,可以临时租用更高配置的机器;完成后可关机或销毁以节省成本,云硬盘可以永久保存你的模型和作品。
4、访问便利性:只要有网络,你可以在任何设备(电脑、平板甚至手机)上通过浏览器远程连接并操作你的云主机进行创作。
方法一:使用预装好的云服务(最简单,最快上手)
一些云服务商提供了已经预装了Stable Diffusion WebUI和相关环境的“镜像”或“应用”,你只需要选择这个镜像开机,就能得到一个开箱即用的AI绘画环境。
推荐平台:
AutoDL国内对新手非常友好的平台,有大量预置环境,价格实惠,支付方式方便。
Featurize(函数计算)同样国内平台,按实际计算时长扣费,适合偶尔使用。
Vast.ai国际平台,价格可能更低,但界面和操作对新手稍复杂。
Google Colab(免费/Pro版)提供免费的GPU(T4/K80),但有限制,适合轻度使用和学习。
以AutoDL为例的操作流程:
1、注册充值:注册AutoDL账号并充值。
2、租用实例:点击“租用实例”。
3、选择GPU:选择你需要的GPU型号(RTX 3090, A5000等都很常用)。
4、选择镜像:这是关键一步!在“镜像”选项中,选择社区镜像
,然后搜索Stable Diffusion
或秋叶
,你会找到很多别人配置好的镜像(如“秋叶的sd-webui”镜像),选择其中一个。
5、开机并连接:实例创建成功后,点击“JupyterLab”或“终端”进入操作界面,通常预置的镜像已经帮你启动好了服务。
6、访问WebUI:在实例详情页的“自定义服务”选项卡中,你会看到一个访问端口的链接,点击它,就能直接打开和你本地一模一样的Stable Diffusion WebUI界面,开始绘画!
优点:极致简单,5分钟上手,无需任何命令行知识。
缺点:镜像版本可能不是最新的,自定义程度相对较低。
方法二:在纯净Linux系统中手动部署(最灵活,通用性强)
如果你希望完全控制软件版本,或者云服务商没有提供合适的镜像,你可以从一台纯净的Linux云主机开始手动部署。
推荐平台:阿里云、腾讯云、AWS、GCP 等任何提供NVIDIA GPU实例的云厂商。
核心步骤:
1、租用实例:选择一台Ubuntu 20.04/22.04系统的GPU实例。重要:务必安装相应的NVIDIA GPU驱动(部分平台提供“自动安装驱动”的选项)。
2、安装基础依赖:通过SSH连接到你的云主机,安装Python, Git, Conda等工具。
sudo apt update && sudo apt upgrade -y sudo apt install wget git python3 python3-venv -y
3、克隆Stable Diffusion WebUI仓库:
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git cd stable-diffusion-webui
4、运行启动脚本:
./webui.sh --listen --share
--listen
允许通过IP地址访问(否则只能本地访问)。
--share
会生成一个临时的公网URL,方便测试(但速度慢)。
* 更多参数如--port
(指定端口)、--medvram
(优化显存)等可按需添加。
5、访问WebUI:
* 如果使用了--share
,命令行会输出一个gradio.live
的链接,直接访问即可。
更稳定的方式是使用SSH隧道(Port Forwarding)
在本地终端执行ssh -L 7860:localhost:7860 your_username@your_server_ip
* 然后在本机浏览器访问http://localhost:7860
优点:完全掌控环境,可以随时更新到最新版本。
缺点:需要一定的Linux和命令行操作基础。
方法三:使用Docker部署(介于两者之间,干净且高效)
Docker可以将应用程序和环境打包成一个容器,实现一次配置,到处运行。
操作流程:
1、 在云主机上安装Docker和NVIDIA Container Toolkit(让Docker支持GPU)。
2、 拉取现成的Stable Diffusion Docker镜像,
docker pull pengzhile/pandora
3、 运行容器,并映射端口和模型目录:
docker run -d --name sd -p 7860:7860 --gpus all -v /path/to/your/models:/models pengzhile/pandora
4、 访问本地的http://localhost:7860
(通过SSH隧道)或服务器的http://your_server_ip:7860
。
优点:环境隔离,部署干净,不易出错。
缺点:需要理解Docker的基本概念。
1、成本控制:不用时一定要“关机”或“销毁”实例! 云主机的计费通常是按运行时长计算的,关机后通常只收取少量云硬盘的存储费用。
2、数据持久化:你的模型和作品应该保存在云硬盘中,而不是实例本身的空间,这样即使销毁实例,数据也不会丢失,下次租用时,将云硬盘挂载到新实例即可。
3、安全设置:如果你的WebUI直接暴露在公网(即不用SSH隧道,直接通过IP:端口访问),务必设置密码认证,否则任何人都可以使用你的GPU资源。
在webui.sh
启动时添加参数--gradio-auth username:password
4、模型下载:国内网络下载Hugging Face上的模型可能很慢,建议:
* 在本地用下载工具(如迅雷)下载好模型(.safetensors
或.ckpt
文件)。
* 通过云服务商提供的“文件传输”功能或SFTP工具(如WinSCP, FileZilla)上传到云主机的正确目录(通常是stable-diffusion-webui/models/Stable-diffusion/
)。
方法 | 难度 | 优点 | 缺点 | 适合人群 |
预装镜像 | ⭐☆☆☆☆ | 极速上手,开箱即用 | 版本可能旧,自定义性低 | 绝对新手,想立刻体验 |
手动部署 | ⭐⭐⭐⭐☆ | 完全控制,灵活性强 | 需要Linux命令基础 | 开发者,技术爱好者 |
Docker部署 | ⭐⭐⭐☆☆ | 环境干净,部署一致 | 需理解Docker概念 | 有一定技术基础的用户 |
对于绝大多数初学者,强烈推荐从【方法一】开始,选择AutoDL等平台的预置镜像,这是通往云主机AI绘画世界最快捷、无痛的道路,当你熟悉之后,再探索其他方法以获得更大的灵活性。
文章摘自:https://idc.huochengrm.cn/zj/15831.html
评论
鄢宵雨
回复使用云主机进行AI绘画可以解放本地资源,灵活配置环境,方便访问,有预装镜像、手动部署和Docker部署三种方法,适合不同技术水平用户。
佴清奇
回复云主机通过安装AI绘画软件,利用AI算法和海量数据,实现自动生成或辅助创作艺术作品,用户只需输入指令或选择模板,即可快速获得个性化绘画效果。