3

Mac 跑 Stable Diffusion,预算有限是上 38 核 GPU,还是上 64 GB 内存?

 11 months ago
source link: https://www.v2ex.com/t/979171
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

V2EX  ›  iMac

Mac 跑 Stable Diffusion,预算有限是上 38 核 GPU,还是上 64 GB 内存?

  apppa · 18 小时 20 分钟前 · 1694 次点击
目前 N 年前的 MBP ,跑 SD 生成一张图太慢了,准备升级。不知道 SD 在 Mac 上跑图是吃 GPU 还是吃内存?
28 条回复    2023-10-07 03:04:53 +08:00
qweruiop

qweruiop      18 小时 3 分钟前

一样慢,我专门买了个 rog 来生图。。。mac 就别指望了。。。
seres

seres      17 小时 23 分钟前

提升都不大
不如抠出三千,E5 + 2080ti 改 22G
给你飞一般的画图体验
zooo

zooo      16 小时 51 分钟前   ❤️ 1

非 mac 跑的

前几天跑过,发现内存需求挺大的,48G 内存不够用,把 swap 拉高才能跑,我理解的 GPU 显存大小越大越好,不过听说 mac 的显存和内存是同一个,那就是内存越大越好,至少 64G
zooo

zooo      16 小时 50 分钟前

另外,跑图慢倒无所谓,现在要出效果好,得用大模型,模型越来越大,比较吃显存
zooo

zooo      16 小时 41 分钟前

Mac 的 GPU 比 N 卡 3090 跑图速度更快么,不清楚 Mac 芯片真正用来跑模型的速度,业界大多都用的 N 卡跑的吧
emeab

emeab      16 小时 40 分钟前

我的建议是买 4090
TabGre

TabGre      16 小时 37 分钟前 via iPhone

你们用的什么客户端🏃的?
imqiyue

imqiyue      16 小时 15 分钟前

为什么一定要在 Mac 上跑,可以考虑搭建个 linux 环境,用 Nvidia 的显卡跑呀,出了问题还好排查
newage126

newage126      16 小时 13 分钟前

sd 和玩游戏一样 不适合在 macOS 上搞
youthfire

youthfire      16 小时 8 分钟前 via iPhone

windows 上 N 卡跑,mac 远程
apppa

apppa      16 小时 5 分钟前

@zooo 明白。您觉得显卡核心数多少够用?
apppa

apppa      16 小时 2 分钟前

@TabGre 一般都用 Stable Diffusion web UI 吧
cest

cest      15 小时 42 分钟前

64G, 还可以玩玩 llm

ram 是能不能动的问题
gpu 是去玩多久手机的问题
zooo

zooo      15 小时 38 分钟前

@apppa 不清楚

另外,真心不建议用 mac 跑

不只是速度的问题,跑模型遇到一些问题,mac 版能够查到的资料的少,不如用 N 卡

如果你要做模型在 mac 系统移植那另说
formant

formant      15 小时 20 分钟前

2080ti 魔改 22G ,了解一下。
ybz

ybz      14 小时 13 分钟前

你有没有感觉 Mac 跑 sd 生成的图片很丑?使用通用模型
paopjian

paopjian      13 小时 32 分钟前

真被忽悠瘸了啊,用 mac 跑 AI
TabGre

TabGre      13 小时 14 分钟前 via iPhone

@apppa 有具体的 githib 地址吗? 我找了几个 都不大好用
lun9

lun9      10 小时 39 分钟前 via iPhone

专门买了 4070 来跑😂
TUCANA

TUCANA      10 小时 34 分钟前

@ybz 我也觉得,同样的参数 Mac 跑出来的不好看。但是这个很主观,没有证据
ShadowPower

ShadowPower      10 小时 25 分钟前

预算有限的情况下不要用 Mac 跑,因为任何一个选项都是性价比很低的选项。
作为参考,我的 4060Ti 16GB 跑 512x512 的图,用 UniPC 采样器,大约 13it/s 。

如果不得不买 Mac ,建议租 GPU VPS 来跑。
ShadowPower

ShadowPower      10 小时 4 分钟前

另外,和大型语言模型是 IO 密集型任务不同,Stable Diffusion 实际上是计算密集型任务。
计算性能一般但带宽够大的设备适合前者。
Stable Diffusion 模型参数相比大型语言模型并不大,但运算量要大得多。

我用 4060Ti 16GB 就可以训练(不是推理) SDXL Lora 模型。游戏玩家会告诉你这块显卡是智商税,但玩 Stable Diffusion 的会告诉你这是非矿非改全新显卡中最实惠选择。

另外用 Stable Diffusion 直接出超高分辨率是毫无意义的,如果你生成的图像超出了训练分辨率,即:
原版 1.4 、1.5 是 512 像素边长
原版 2.0 、2.1 ,以及 NovelAI 泄露模型和衍生模型是 768 像素边长
SDXL 是 1024 边长

如果超出一点点还行。超出很多的话,并不会得到一张细节非常清晰的图,而是得到一张主体元素重复,内容四分五裂的图。只是图片看起来还能衔接起来罢了。

在使用 xformers 的情况下,我用 6GB 显存跑原版 1.5 模型都可以直出 2048x2048 。但我也就体验了一次,之后根本没有用过。

真正出大图还是用 Tile 模式,先生成一张正常的小图,然后把这张小图放大,分块,最后细化每个分块。
实际上用起来显存使用量跟生成小图差不多。

---

虽然 N 卡 16GB 显存就可以做,但我从未听说过有人用 32GB 内存的 Mac 来做同样的事情。(指训练 SDXL 的 Lora )
hawei

hawei      9 小时 31 分钟前

直接开 cloud gpu
wclebb

wclebb      9 小时 27 分钟前 via iPhone

关于这个有 YTB 谈过。

?si=XQ5sosyTctnZWblx

可以了解一下。

我个人觉得内存越大越好,速度可以慢点,内存上不去就真上不去了。

大约 11 分钟这里谈到 SD 对于大内存的优势。大内存 SD 可以出十连抽,内存低的只能抽一张。
findex

findex      5 小时 33 分钟前 via iPhone

放弃 mac 。特别慢。手有 m1 和老黄家显卡,m 再怎么吹也被 n 卡吊打几个数量级。gpu 核心加显存都吃。4090 笑而不语。

你这思路很清新奇特。我觉得你想表达的是,喜欢平时用 mac 电脑,但是老 mac 太慢了需要更新换代一台。想偶尔跑跑 sd ,预算不太多,选 gpu 核心多的款式还是内存大一点的。都选的话荷包不太够,给个建议。
WuSiYu

WuSiYu      3 小时 22 分钟前

跑 sd 就用 4090 吧,跑推理的话显存需求不大,24G 完全够用。而别的实现连 flash attention 都没有,反而会需要更多的内存,O ( n )和 O ( n^2 )的区别。

mac 是很一般的算力 + 大容量的(内存)显存的组合,唯一的用处是跑单 batch LLM 推理这种极为特殊的 workload ,跑别的计算密集的负载,比如 stable diffusion ,都极为拉垮:m2 max gpu 的 fp16 性能为 26.98 TFLOP/s ,而 4090 为 350 TFLOP/s 以上( tensor core )
justaname

justaname      2 小时 38 分钟前 via iPhone

原来还真有人信了 mac 那残疾独显(除开低功耗区间的能效比优势)能跑 DL 呀……

About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK