分享

德国人,造了台“羞羞”

 放毒 2024-05-16 发布于北京


今天再聊个好玩的

前几天,国外出现了一款使用 AI 人工智能的新相机

「NUCA

这个相机有什么特别的呢?

它可以自动脱掉被拍摄者的任何衣服

而且是在 10 秒内

啊,这......

NUCA」是由德国艺术家 Mathias Vef 和 Benedikt Groß 创作的

主要部分呢,是一台配有 37 毫米广角镜头的 3D 列印相机

拍照时识别被摄者的骨骼姿态

当使用相机拍摄照片后,照片会被发送到伺服器

这个镜头中出现的骨骼姿态模型让我仿佛看到了一位故人

总感觉镜头中的人下一秒就要拿起篮球了

啊,说回伺服器

这个伺服器会使用 Vef  和 Groß 制作的分类器来分析照片

然后会将被拍摄者的性别、年龄、种族等资讯透过文字描述出来

再将这些文字作为关键词,输入到一个基于 Stable Diffusion 的文字生成图片的人工智能生成器中

最后透过这个生成器,结合一个 Civitai 模型来产生羞羞的照片

拍出来的效果嘛

哎呀,我都不好意思看了

有人问,这不就是 Stable Diffusion 吗?那脸部是怎么处理的呢?

NUCA 还使用一个开源的一键换脸工具来将被拍摄者的脸部换到生成出的人工智能图片中(具体是哪个工具没说)

所以,它的原理并不算复杂

但是,你给人拍(准确说是人工智能造图)果照明显侵犯了隐私啊

不过据《Fast Company》杂志报道,Vef 和 Groß 这俩哥们儿只是要利用这个噱头向受众传达一个讯息:

生成式 AI 在如何侵蚀现实世界的结构本身

他们是希望用这个引人注目的观点用煽动性的推销方式予以表达

项目网站写道:“NUCA已经引发了各种各样的反响。这个项目引发了公众讨论 AI 具有的潜力,强调知情权、算法公平性以及 AI 生成的图片给社会带来的影响。”

所以 NUCA 只能算是他们的一个作品,并不会作为实际销售的商品

目前作为展品出现在柏林 Nüüd 主题为 Uncanny 的展览中

NUCA 的创作者认为通常情况之下制作他人非自愿性果体图片的人会匿名在网上传播,被侵犯个人隐私的对象无法得知随意传播的人是谁

而 NUCA 现在做的就是——将裸照被传播的过程压缩到一个物件中,并将创作图片的人和被人工智能脱掉衣服的人放置于同一个空间中

他们认为这就是 NUCA 存在最有意义的部分

还挺哲学的

其实,关于AI 生成图片到底有没有底线这件事其实大家一直在讨论

之前就有人做过输入明星的名字就可以生成明星照片的网站 krea.ai 

比如你输入

“Elon Musk, 50 years old , wearing a tuxedo”

就会出现马斯克穿著燕尾服的图片

但是如果我们使用比如像 Bing 这样的的影像建立工具来输入一样的内容

Bing 不仅不会生成图片

还会出现内容警告的标示

所以在这里,你可以无限制地生成明星照片

比如美队版的艾玛·斯通

美队版的艾玛·沃特森

007版的哈利波特

而这个网站最大胆的还在于

不管男女明星,你都可以生成他们羞羞的照片

我试了,真的可以

想试的自己去试吧,此处假装有图片

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多