蒙娜丽莎被“一键脱衣”
定制一张裸照需要多长时间?最新的技术只需要30秒。
你不需要有高超的PS技术,不必有想象力,也不用知道任何数据或细节。只要有一张个人照片,普通的家用电脑就能制造一张原本不存在的裸照。
最近,一款具备这样功能的软件上线,仅5天就吸引了超过50万人下载,一度让网站服务器宕机。根据照片里人物的姿势、身材、肤色,程序会借助神经网络技术,自动生成裸照。照片中的人物裸露得越多,生成的裸照也会越逼真。泰勒·斯威夫特、斯嘉丽·约翰逊、艾玛·沃特森等知名女星是首批受害者。
这已经不是她们第一次受到人工智能技术的威胁。她们的脸曾被移植到色情照片中,再后来,是色情影片中。过去,这是一项大工程,伪造视频要有好的修图技术,还得一帧一帧进行修改。而现在,一个个傻瓜式的软件被制造出来,好事者要做的只是点几下鼠标。
曾多次卷入伪造视频风波的斯嘉丽·约翰逊说,“很明显,这对我的影响没有那么大,因为人们知道色情视频里的人不是我。但对普通人来说就不一样了。”
迫于各方压力,开发者很快下架了这款软件。在社交平台上,化名阿尔贝托(Alberto)的他用遗憾的口吻说,“世界还没做好迎接它的准备”。但这个软件仍然在网络上疯传,有人公开兜售破解版软件,还有人打包售卖伪造的色情制品,并称可以定制女星照片。
耐人寻味的是,即使在软件中上传男性的照片,产出的图片的关键部位仍是女性的。还有人上传了海绵宝宝的图片,最后得到了一个卡通版的裸体女郎。阿尔贝托解释说,这是因为互联网上可供计算机分析的女性的素材远多于男性。
人们曾对AI修图术寄予厚望。它能修复老照片、给黑白照片上色,能画出梵高、莫奈风格的画作,还能把服装设计的草稿转化为实物,帮你设计好细节和质感。这个技术的根源还和自动驾驶、人脸识别等技术密切相关。
在技术人员的手中,人工智能可以仅凭一张个人照片模拟出视频,让蒙娜丽莎开口说话;只需一段音频就能模仿声线,伪造可以乱真的语音,让爱因斯坦唱起流行歌曲,把吐舌头的顽皮形象进行到底。
一开始,感到新奇的人们把《射雕英雄传》中朱茵的脸换成杨幂的,使六小龄童钻进蔡徐坤的身体,让苏大强变身吴彦祖。再后来,色情照片和视频被批量生产。在技术的辅助下,没有办不到,只有想不到。
制造色情制品,只不过是人工智能最普通的应用之一,也是最容易被辨别真伪的。类似的谎言有时更难被察觉:一段看似权威的新闻播报,极有可能是人工合成的;一件事情即使有视频为证,也不可信。
我们曾经生活在一个眼见为实的时代,相信有图就有真相。修图技术泛滥后,我们仍能庆幸,至少视频没法造假。而现在,一切都有可能是经过修饰的,甚至可能根本不存在。
在一些人的精心设计和制作下,美国前总统奥巴马吐槽过特朗普“完全是个笨蛋”,扎克伯格炫耀自己“掌握了亿万人的秘密、生活和未来”。美国众议院议长有一段形似醉酒、胡言乱语的视频,被观看了几百万次,特朗普一度信以为真,转发并嘲笑其不适合从政。
目前,美国、英国、日本等多个国家都已经将“色情报复”行为入罪。美国《通信规范法》第230条曾规定,互联网服务不必为其用户的行为负责。但现在,多名议员要求国会考虑修改法律,“否则,社交平台没有动力去解决具有破坏性、危险性的内容。”美国众议院警告称,类似技术如果被滥用,可能会对2020年的美国总统大选产生灾难性影响。
领英每年要处理上万个虚假账户,其中很多账户的头像并非实拍,而是用人工智能生成的,用于从事间谍活动。
“阿尔贝托”后来多次在社交平台上强调自己没有作恶,只是技术爱好者,“我的软件所能做到的,PS早就可以做到。任何人都可以通过图片处理软件画出别人的裸照,我只是加快了这个速度。”
在相同的逻辑下,国内有程序员开发了名为“原谅宝”的软件,自动抓取网络上的女性色情图片和视频与待“鉴定”的照片进行匹配比对。原谅宝的开发者同样宣称自己没有作恶,但这款软件和生成祼照的软件形成了一个完美闭环:任何女性都可以被一键生成裸照,然后被前者标记。
我们可以禁止这些软件的产生,但不可能禁止这项技术的存在。在某一天,可能每个人都会有伪造照片和视频的能力,每一个男性和女性也都可能成为受害者。即使没有“阿尔贝托”,也会有另一个人开发类似的软件,不管世界有没有做好迎接的准备。