zooman
zooman

Likecoin验证人,关注科技、自然、阅读、电影及家庭教育

【ControlNet 应用实践】怎么制作超酷文字光效合成图片?

最近两天,各个AI交流群都在分享一组将文字用光影合成在模特身上的创意照片。这种效果用来做新媒体传播,B格拉满。

你是否也被这些光影效果所吸引,想尝试制作属于自己的创意图文合成作品呢?今天,我们就来揭开这项神秘的技术,讲解一下ControlNet的简单应用,以及如何用lightingBasedPicture模型控制光线信息,让文字和生成的图像完美融合。

熟悉Stable Diffusion ControlNet 插件的同学,一看到这组照片,应该都能琢磨出,让AI生成这样的创意图片的大致流程。

原理很简单,就是用ControlNet 精准控制文字或光线形状,和文生图合成最终的画面。问题在于,到底用哪个模型效果最好,以及具体的参数如何调优。

ControlNet插件是一个基于深度学习的图像处理工具,它可以让你用简单的控制点来调整图像的亮度、对比度、色彩、透视等属性,从而实现各种有趣和有用的效果。ControlNet插件有一个大家可能不是很熟悉的模型,叫lightingBasedPicture,可以很方便的实现可控光影。

这个模型的下载地址在这里:https://civitai.com/models/80536/lighting-based-picture-control-controlnet

模型作者很贴心的写了很详细的教程。

我在昨天测试这个模型的时候,不小心把Stable Diffusion系统搞挂了,所以这篇博客,没办法用截图还原实现文字光效合成的详细流程,本文大致讲解下思路和方法,如何用lightingBasedPicture做出超酷文字光效合成图片。

安装ControlNet插件,下载lightingBasedPicture模型的流程就不展开来讲了。不懂的同学可以自己去B站上找教程。

重点讲讲如何使用lightingBasedPicture模型控制深度信息?

要制作出文字光效或者文字合成图片,我们需要先把文字和背景图片融合起来。为了让文字看起来更自然和真实,我们需要考虑文字在图片中的深度信息。深度信息指的是图像中每个像素距离相机的距离,它影响了图像中物体的大小、透视、阴影等视觉效果。如果我们能够控制文字在图片中的深度信息,我们就能让文字看起来更符合图片中的光线和空间。

幸运的是,lightingBasedPicture模型,它可以让我们用控制点来改变图像中任意区域的亮度和深度。

lightingBasedPicture模型基于一个假设,就是图像中亮度越高的区域距离相机越近,亮度越低的区域距离相机越远。所以,如果我们想让文字看起来更近或者更远,我们只需要调整文字区域的亮度就可以了。

调整lightingBasedPicture模型对光线的影响有两个参数,一个是weight,即模型权重。一个是模型推出时间,即ending。

在lightingBasedPicture模型的介绍页面,作者很细心的提供了这个模型的两个参数的最佳值区间:权重0.6,退出时间0.6。

但是到底设置多少才是最佳效果,靠抽卡调试,其实很费时。

一个有效的思路是用Stable Diffusion 页面的Script功能,我们选择X/Y/Z plot,X选择ControlNet 模型的weight,参数设置一个0.3开始的等差数列,譬如,0.3、0.4、0.5、0.6、0.7;同理,Y选择ControlNet 模型的退出时间,也设置等差数量,0.3、0.4、0.5、0.6、0.7。然后Stable Diffusion会生成一个5X5张缩略图的矩阵图,我们挑选一个最佳效果,对应的X、Y值,就是weight和ending的参数值。

另外,用来控制光线形状的文字图,最好是黑底白字。你也可以用Photoshop或者其他图像编辑软件来制作你的文字图片。

恭喜你,你已经掌握了使用ControlNet插件制作出超酷的文字光效和文字合成图片的关键技巧!我希望你能够享受这个过程,并且创造出更多的美丽和有趣的图片。

CC BY-NC-ND 4.0 版权声明

喜欢我的文章吗?
别忘了给点支持与赞赏,让我知道创作的路上有你陪伴。

第一个支持了这篇作品
加载中…

发布评论