就学joinlearn.com
AI 绘画16 分钟

Stable Diffusion 新手入门:免费开源的 AI 绘画神器

Stable Diffusion 是完全免费开源的 AI 绘画工具,本教程教你安装 WebUI、使用模型、调整参数,零成本开始 AI 创作。

D
DFK
作者
Stable DiffusionAI绘画开源WebUIComfyUILoRA

什么是 Stable Diffusion?

Stable Diffusion(简称 SD)是一个完全免费开源的 AI 图像生成模型。与 Midjourney 不同,SD 可以在本地运行,不限制生成次数,还可以使用各种自定义模型和插件。

SD vs Midjourney

特性Stable DiffusionMidjourney
价格完全免费$10-120/月
本地运行✅ 支持❌ 不支持
自定义模型✅ 海量模型❌ 不支持
生成限制无限制有时间限制
学习曲线较陡简单

我第一次在本地跑 SD 的体验

在用了几个月 Midjourney 之后,我开始对 Stable Diffusion 产生了好奇——主要是因为想尝试 ControlNet 精准控制,以及不想每月花 $30 的订阅费。

第一次安装 SD WebUI 的过程堪称"劝退"。我在 Mac 上折腾了两个晚上——先是 Python 环境冲突,然后是 PyTorch 版本不对,最后是模型下载速度慢到抓狂。

不过当我终于看到 WebUI 界面在浏览器里打开的那一刻,一切折腾都值了。

我的第一张 SD 图用的是 Anything V3 模型,提示词照搬了 Midjourney 的那条日式咖啡馆。出图的一瞬间我就明白了 SD 和 Midjourney 的区别:Midjourney 像一个有自己审美的画家,而 SD 像一支你可以完全控制的画笔

SD 的默认输出没有 Midjourney 那么惊艳,但你可以通过更换模型、调整参数、使用 LoRA 来精确控制每一个细节。而且最重要的是:完全免费,无限生成

现在我的工作流是:Midjourney 做概念探索和风格化的图,SD 做需要精准控制的商业项目。两者互补,各有所长。


硬件要求

最低配置

  • 显卡:NVIDIA GTX 1060 6GB 或以上
  • 内存:16GB
  • 硬盘:20GB 可用空间

推荐配置

  • 显卡:NVIDIA RTX 3060 12GB 或以上
  • 内存:32GB
  • 硬盘:SSD,50GB+ 可用空间

安装 WebUI

方式一:一键整合包(推荐新手)

  1. 下载整合包(秋葉 / 绘世等)
  2. 解压到非中文路径
  3. 双击"启动器.exe"
  4. 等待加载完成

方式二:手动安装

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui
./webui.sh  # Linux/Mac

提示词基础

正向提示词示例

masterpiece, best quality, 1girl, long hair,
blue eyes, white dress, standing in flower field

反向提示词示例

lowres, bad anatomy, bad hands, text, error,
missing fingers, worst quality, low quality

权重控制

(keyword)      // 权重 x1.1
((keyword))    // 权重 x1.21
(keyword:1.5)  // 权重 x1.5

模型生态

基础模型(Checkpoint)

模型特点适合场景
SD 1.5经典版本通用
SDXL高质量高分辨率
Pony动漫风格二次元

LoRA(微调模型)

<lora:模型名:权重>
示例:<lora:add_detail:0.8>

模型下载站


关键参数详解

新手在 WebUI 里经常被密密麻麻的参数搞晕。其实你只需要关注以下几个核心参数:

采样方法(Sampler)

采样方法决定了 AI 如何一步步"画出"图片。不同的采样方法速度和效果不同:

  • Euler a:速度快,适合新手入门。生成的图像风格偏柔和
  • DPM++ 2M Karras:目前社区最推荐的采样方法,画面细节丰富,质量稳定
  • DDIM:速度快,适合配合 ControlNet 使用

我个人日常用 DPM++ 2M Karras,除非赶时间才用 Euler a。

采样步数(Steps)

步数越高,图片细节越丰富,但生成时间也越长。

  • 15-20 步:速度快,适合快速预览和构图确认
  • 25-35 步:质量和速度的平衡点,日常推荐
  • 40 步以上:边际效益递减,除非追求极致细节

我的经验是:先用 15 步快速预览构图和整体效果,满意后再用 30 步出正式图。

CFG Scale(提示词引导强度)

这个参数控制 AI 多"听话"——数值越高,越严格遵循提示词。

  • 3-5:AI 自由发挥,画面更自然但可能偏离提示词
  • 7-9:推荐范围,提示词和创意的平衡点
  • 12 以上:过于死板,画面容易过饱和或出现伪影

新手建议从 7 开始,根据出图效果微调。

图片尺寸

不同模型有推荐的生成尺寸:

  • SD 1.5:512x512 或 512x768
  • SDXL:1024x1024 或 1024x1536

超过推荐尺寸会导致画面出现重复元素(比如两个头),这是新手常见的"灵异事件"。想要更大分辨率,应该先按推荐尺寸生成,再用高清修复(Hires Fix)放大。


WebUI vs ComfyUI:该选哪个?

SD 的前端有两大选择:AUTOMATIC1111 的 WebUI 和 ComfyUI。

WebUI 像一个精装修的公寓——打开就能用,按钮和选项一目了然,适合新手。

ComfyUI 像一个毛坯房——你需要自己用节点连线搭建工作流,上手难度高,但自由度也高得多。适合需要复杂流程的高级用户。

我的建议是:先从 WebUI 入门,等你熟悉了 SD 的核心概念(采样、CFG、ControlNet 等)后,再转向 ComfyUI。两者并不冲突,很多人两个都在用。


常见问题排查

出图全黑或全白

通常是 VAE 模型问题。确保你加载了正确的 VAE,SD 1.5 推荐用 vae-ft-mse-840000,SDXL 内置了 VAE 一般不需要额外加载。

人物手指畸形

这是 SD 的"老毛病"。解决方法:在反向提示词里加 bad hands, missing fingers, extra fingers,同时适当提高采样步数。使用专门优化过手部的模型(如 realistic vision)也有帮助。

生成速度太慢

确认你的显卡驱动是最新版本,并启用了 xformers 优化。如果显存不够,可以在启动参数里加 --medvram 来降低显存占用。


总结

Stable Diffusion 的学习曲线确实比 Midjourney 陡,但它给你的回报也更大——完全免费、无限生成、无限可能。掌握了 SD,你就拥有了一个完全属于自己的 AI 绘画工作室。

从安装 WebUI 开始,跑几张图找感觉,然后慢慢尝试不同的模型和参数。不需要一次全学会,关键是保持尝试的热情。当你在 Civitai 上发现一个超棒的模型,或者用 ControlNet 精准控制了一个复杂姿势的时候,那种成就感是 Midjourney 给不了的。


相关资源

返回博客列表
分享文章:

想要更深入的学习?

订阅我们的课程,获得完整的视频教程、源码资料和专属答疑支持

查看全部课程