不明觉厉的AI绘画对内容创作者来说有什么用?

  如今,AI绘画进入了技术爆炸的时代,有关AI绘画的争议和论战也越发激烈,那对于内容创作者来说,要如何理解AI绘画?又有哪些应用场景和亟待探索的问题?本文作者与多位创作者就此进行了讨论,并结合各平台的案例来分析,快来看看吧。

  可能不少人会觉得惊讶,两年前AI只能画一些难以辨认的模糊图片,如今,一个没有绘画基础的人用AI输入几个关键词,等待几十秒就可以生成比较精细的作品了,如果再多加练习,部分作品甚至能达到商用的水准。

  这股浪潮也从国外刮到国内,百度等互联网大厂以及一大批艺术、人工智能从业者和爱好者纷纷投入AI绘画的新领域。代表平台有文心一格、6pen、Tiamat等等。

  与此同时,有关AI绘画的争议和论战越发激烈。近期出圈的一个事件是AI画作《太空歌剧院》在美国科罗拉多州博览会美术比赛中获得数字艺术/数字修饰照片类别的最高奖项,结果受到画师们的质疑和抵制。

  文章分为三部分:第一部分是对AI绘画的基本原理和发展历史的简单科普,第二部分列举了一些AI绘画的具体应用案例,第三部分是探讨目前AI绘画存在的争议和问题,希望对感兴趣的朋友有所帮助,欢迎友好交流。

  首先,我们在这里讨论的AI绘画主要是通过文本生成图像的计算机程序,即文生图(text2image)。

  深度学习在计算机视觉领域的发展可以追溯到2012年,AI学者吴恩达和Jeff Dean等人的猫脸识别实验(通过1000台电脑创造出多达10亿个连接的神经网络,上万张猫脸图片的模型训练后,最终画出了一个模糊的猫脸),这意味着机器自主学会了识别猫的面孔。

  此后科学家们在AI图像生成的方向上继续深入研究,提出了GAN(生成对抗网络),通过生成器与判别器的互相博弈来不断提升生成能力,就像有一位老师在检查学生画得像不像,不像的话学生就重新修改,如此循环。

  2015~2020年,从GAN开始,AI绘画模型进行了很多探索,但这个时候AI还做不到根据文字来生成图片。

  直到2021年1月,OpenAI接连发布了两个连接文本和图像的神经网络DALL·E和CLIP。CLIP(跨模态预训练模型)基于大规模图文数据集进行了对比学习训练,可以提取文本和视觉特征来互相匹配。也就是说,AI能够将文字猫与猫的图像相关联,且关联的特征是非常丰富的。

  所以当我们在DD输入一段文字描述时,程序以Diffusion随机生成的噪声为起点,CLIP会持续计算检查画面与描述的一致性,持续迭代修改,直到噪声变成正确关联的线条和色彩,从而生成满足需求的图像。

  AI艺术研究者FeiArt认为,基于生成模型的AI绘画是一个有码到无码的艺术。

  虽然DD实现了文生图,但因为是开源的,上手门槛比较高,光是满屏的代码可能就要劝退新手小白了。

  DD出圈不到一个月,很快就有更成熟、门槛更低的产品出现了——Midjourney(简称MJ),目前社区成员超260万。

  我们在谷歌趋势搜索关键词ai painting,可以看到近两年的热度迅速上升,尤其今年7月以来达到最高峰。

  SD新账号可以免费使用200点数,每次生成根据画面精细程度、张数等参数消耗不同的点数,最少1次1点。不过SD是完全开源的,用户可以选择线上或部署到本地来使用。

  SD出现后,AI绘画的浪潮越发汹涌,多位创作者表示可能前两天还在讨论的功能,第二

留下评论