4

如何用Stable diffusion三步搞定场景定制化?来看58的经验总结! - 优设网 - 学设计上...

 1 year ago
source link: https://www.uisdc.com/stable-diffusion-16
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!

如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!

随着人工智能的逐渐发展,越来越多的 AI 工具也一窝蜂的涌现出来。

在众多的 AI 利器当中 Midjourney(简称 MJ)和 Stable diffusion(简称 SD)两款软件在图片的效果呈现上表现尤为突出,虽然 MJ 能够通过描述关键词来对图像进行调整,但总觉得跟脑海里设想的那张图还差一点意思,不能完全的符合心里预期。

迫于这个原因我们将经历投入到 SD 的学习当中,在学习的过程中发现 SD 的操作界面对设计师来说比较友好,操作界面更类似于一款软件的操作界面,感觉是在学习一门技术(可能是总用绘图软件做图留下的后遗症)。

在实际操作 SD 这款软件时有两点是强于 MJ 的:1.它可以精准控制画面的构图及布局。2.它也可以定制画面的输出风格。在工作上能将所设想的草图通过 control net 插件进行百分之百的还原,可以说大大的提高了出图质量及数量。

本次分享将结合平时工作中,应用到 SD 软件进行出图的实操经验,通过对 SD 的运用输出行业场景图来给大家做一些示范。在日常的工作中,为了保证视觉构图还有画面风格的一致性,有意去搭建了属于赶集行业特征的运营场景素材库,目的是为了让设计师能灵活调用,随做随取,节省时间提高效率。

更多AI实战案例:

如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!

在开始实操之前,先来说下 SD 的工作流程:1.前期需要在脑子里构想一个场景图,并借用绘图软件勾勒出大概的草图轮廓线。2.通过 SEG 图表找到对应材质的色值(SEG 色表大家可以网上搜索自行下载),实现对画面中摆放物体的材质进行精准调节。3.将文生图得到的图片转到图生图中借助 control net 插件中 tile_resample 模型对图片里的细节进行处理于此同时使用脚本中的 UItemate SD upscale 模型将已得到的图片进行人为放大(这样做是为了在图生图的放大过程中同时修补画面细节)

如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!

一、线稿生成图

好的废话不多说,咱们开始演示:

第一步输入正向关键词:CBD 办公场景,宽敞明亮,有格调,高清摄影,广告级修图,8K 高清,CBD office scene,Bright and spacious,There is style,HD photography,Ad-level retouching,8K HD,

反向关键词:

NSFW,nude,naked,porn,(worst quality, low quality:1.4),deformed iris,deformed pupils,(deformed,distorteddisfigured:1.3)cropped,out of frame,

poorlydrawn,badanatomy,wronganatomy,extralimb,missinglimb,floatinglimbs,cdonedface(mutatedhandsandfingers:1.4),

disconnectedlimbs,extralegs,fusedfingers,toomanyfingers,longneck,mutation,mutated,ugly,

disgusting.amputation,blurry,jpegartifacts,watermark,watermarked,text,Signature,sketch,

输入关键词的同时将脑子里的想法通过绘图软件绘制成线稿图(这个线稿的布局及外形决定了出图的结构及布局),将绘制好的草图上传至 control net 插件里选择 scribble 模型(实际操作界面如下)。

如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!
如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!

生成效果如下:

如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!

二、SEG色值生成

第二步:根据画面需要对场景内的物体进行材质更换(这一步需要配合关键词即画面中出现的材质需要在关键词中也对应提及,关键词的重要程度要用()强调,同样也借助 control net 插件里选择 seg 模型,配合第一步的操作双开 control net 模型,SEG 权重的大小数值,决定最终呈现的效果。

如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!
如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!

生成效果如下:

如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!
如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!

三、放大图片调整细节

第三步:选择一张自己心仪的图片然后转到图生图模式,将图片结合 control net 插件中的 tile_resample 进行细节丰富,同时使用脚本中的 UItemate SD upscale 模型将其放大至自己想要的图片大小。

如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!
如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!

好啦,现在你已经得到了一张定制化的场景图片了,是不是还是蛮精准的,按照我们上述的操作路径,我们分别对餐饮场景、销售办公场景、美容美发场景进行了批量生成,效果图片如下。

生成餐饮场景效果如下:

如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!

生成美业场景效果如下:

如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!

生成销售场景效果如下:

如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!

总结:AI 自我的学习能力非常强大,每一刻都在迭代,可能身处这个时代的我们能做的就是不断的拥抱变化,学习如何去驾驭 AI,学会用 AI 为工作提效,希望能从不断的学习探索中找到新突破。

欢迎关注「58UXD」的微信公众号:

如何用Stable diffusion三步搞定场景定制化?来看58的经验总结!


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK