Mac 跑 Stable Diffusion,预算有限是上 38 核 GPU,还是上 64 GB 内存?
source link: https://www.v2ex.com/t/979171
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
qweruiop 18 小时 3 分钟前 一样慢,我专门买了个 rog 来生图。。。mac 就别指望了。。。
|
seres 17 小时 23 分钟前 提升都不大
不如抠出三千,E5 + 2080ti 改 22G 给你飞一般的画图体验 |
zooo 16 小时 51 分钟前 1 非 mac 跑的
前几天跑过,发现内存需求挺大的,48G 内存不够用,把 swap 拉高才能跑,我理解的 GPU 显存大小越大越好,不过听说 mac 的显存和内存是同一个,那就是内存越大越好,至少 64G |
zooo 16 小时 50 分钟前 另外,跑图慢倒无所谓,现在要出效果好,得用大模型,模型越来越大,比较吃显存
|
zooo 16 小时 41 分钟前 Mac 的 GPU 比 N 卡 3090 跑图速度更快么,不清楚 Mac 芯片真正用来跑模型的速度,业界大多都用的 N 卡跑的吧
|
emeab 16 小时 40 分钟前 我的建议是买 4090
|
TabGre 16 小时 37 分钟前 via iPhone 你们用的什么客户端🏃的?
|
imqiyue 16 小时 15 分钟前 为什么一定要在 Mac 上跑,可以考虑搭建个 linux 环境,用 Nvidia 的显卡跑呀,出了问题还好排查
|
newage126 16 小时 13 分钟前 sd 和玩游戏一样 不适合在 macOS 上搞
|
youthfire 16 小时 8 分钟前 via iPhone windows 上 N 卡跑,mac 远程
|
cest 15 小时 42 分钟前 64G, 还可以玩玩 llm
ram 是能不能动的问题 gpu 是去玩多久手机的问题 |
zooo 15 小时 38 分钟前 |
formant 15 小时 20 分钟前 2080ti 魔改 22G ,了解一下。
|
ybz 14 小时 13 分钟前 你有没有感觉 Mac 跑 sd 生成的图片很丑?使用通用模型
|
paopjian 13 小时 32 分钟前 真被忽悠瘸了啊,用 mac 跑 AI
|
lun9 10 小时 39 分钟前 via iPhone 专门买了 4070 来跑😂
|
ShadowPower 10 小时 25 分钟前 预算有限的情况下不要用 Mac 跑,因为任何一个选项都是性价比很低的选项。
作为参考,我的 4060Ti 16GB 跑 512x512 的图,用 UniPC 采样器,大约 13it/s 。 如果不得不买 Mac ,建议租 GPU VPS 来跑。 |
ShadowPower 10 小时 4 分钟前 另外,和大型语言模型是 IO 密集型任务不同,Stable Diffusion 实际上是计算密集型任务。
计算性能一般但带宽够大的设备适合前者。 Stable Diffusion 模型参数相比大型语言模型并不大,但运算量要大得多。 我用 4060Ti 16GB 就可以训练(不是推理) SDXL Lora 模型。游戏玩家会告诉你这块显卡是智商税,但玩 Stable Diffusion 的会告诉你这是非矿非改全新显卡中最实惠选择。 另外用 Stable Diffusion 直接出超高分辨率是毫无意义的,如果你生成的图像超出了训练分辨率,即: 原版 1.4 、1.5 是 512 像素边长 原版 2.0 、2.1 ,以及 NovelAI 泄露模型和衍生模型是 768 像素边长 SDXL 是 1024 边长 如果超出一点点还行。超出很多的话,并不会得到一张细节非常清晰的图,而是得到一张主体元素重复,内容四分五裂的图。只是图片看起来还能衔接起来罢了。 在使用 xformers 的情况下,我用 6GB 显存跑原版 1.5 模型都可以直出 2048x2048 。但我也就体验了一次,之后根本没有用过。 真正出大图还是用 Tile 模式,先生成一张正常的小图,然后把这张小图放大,分块,最后细化每个分块。 实际上用起来显存使用量跟生成小图差不多。 --- 虽然 N 卡 16GB 显存就可以做,但我从未听说过有人用 32GB 内存的 Mac 来做同样的事情。(指训练 SDXL 的 Lora ) |
hawei 9 小时 31 分钟前 直接开 cloud gpu
|
wclebb 9 小时 27 分钟前 via iPhone 关于这个有 YTB 谈过。
?si=XQ5sosyTctnZWblx 可以了解一下。 我个人觉得内存越大越好,速度可以慢点,内存上不去就真上不去了。 大约 11 分钟这里谈到 SD 对于大内存的优势。大内存 SD 可以出十连抽,内存低的只能抽一张。 |
findex 5 小时 33 分钟前 via iPhone 放弃 mac 。特别慢。手有 m1 和老黄家显卡,m 再怎么吹也被 n 卡吊打几个数量级。gpu 核心加显存都吃。4090 笑而不语。
你这思路很清新奇特。我觉得你想表达的是,喜欢平时用 mac 电脑,但是老 mac 太慢了需要更新换代一台。想偶尔跑跑 sd ,预算不太多,选 gpu 核心多的款式还是内存大一点的。都选的话荷包不太够,给个建议。 |
WuSiYu 3 小时 22 分钟前 跑 sd 就用 4090 吧,跑推理的话显存需求不大,24G 完全够用。而别的实现连 flash attention 都没有,反而会需要更多的内存,O ( n )和 O ( n^2 )的区别。
mac 是很一般的算力 + 大容量的(内存)显存的组合,唯一的用处是跑单 batch LLM 推理这种极为特殊的 workload ,跑别的计算密集的负载,比如 stable diffusion ,都极为拉垮:m2 max gpu 的 fp16 性能为 26.98 TFLOP/s ,而 4090 为 350 TFLOP/s 以上( tensor core ) |
justaname 2 小时 38 分钟前 via iPhone 原来还真有人信了 mac 那残疾独显(除开低功耗区间的能效比优势)能跑 DL 呀……
|
Recommend
About Joyk
Aggregate valuable and interesting links.
Joyk means Joy of geeK