新闻 > 大陆 > 正文

“AI换脸”造假难辨中国合成影片最低2元

“AI换脸”不仅速度快,且可以假乱真。图为换脸示意图。

“AI换脸”不仅速度快,且可以假乱真。这项技术的门槛如今越来越低,在中国最低花2元人民币(30美分)就能合成一个影片。

据中国上海媒体澎湃网4月14日报导,如今在电脑中生成、制作人脸的动态影片非常容易。去年在安徽省合肥市,警方发现几个人用一张张静态照片就可做成动态影片。模拟制作出来的人物不仅能点头、摇头,还可做出眨眼、张嘴、皱眉等丰富表情,效果极为逼真。

警方在他们电脑里,找到十几个G的人脸数据,人脸照片和身份证照片按照不同类别存放在不同文件夹里。“身份证正、反面照片、手持身份证照片、自拍照等,被称为一套。”成套照片被称为“料”。由于制作简单,一个影片价格仅售2至10元(0.30至1.55美元)。

参与此案8个人的学历并不高,有的连高中都没读完。他们按网购教程下载软件,花几个月自学完成。

除获取他人照片之外,如今还有人有偿收购他人声音等“料”。仅需少量音影片样本数据,便可合成音影片,可与真人媲美。

因此,只要拿到一个人的照片和声音等数据,就可在电脑上生成关于这个人影片和音频。换句话说,即使看到一个人的影片和音频,却未必真实。北京清华大学人工智能研究院基础理论研究中心主任朱军说,深度合成技术飞速发展,让“眼见不再为实”。

在Youtube上有个“换脸教程”,主播用一张美国总统照片置入一个中国歌唱家影片,只需几分钟时间就生成美国总统演唱中国歌曲的戏剧效果,从口型上很难看出真伪。

中国“上海科技馆”的一篇科普文章介绍AI换脸具体方法。文章说,除五官外,人年龄、性别、性格、情绪等因素都会反应在脸上。所有这些因素在人工智能神经网络模型中,都被视为参数。电脑可通过对大量图片进行学习和总结,得出这些参数,这个过程叫做“训练”。

文章说,为使换脸后图片或影片看起来更真实,通常借助“生成对抗网络”(Generative Adversarial Networks,简称GAN)实现AI换脸。生成对抗网络通常包含两部分,一个是生成模型(Generative Model,简称G);另一个是判别模型(Discriminative Model,简称D),对生成模型合成的人脸进行判别。两者在大规模图片下进行训练,互为博弈,形成对抗。一旦判别模型无法判断真伪,就说明训练得比较成熟。当深度模型被训练成熟后,输入一张人脸,便可在人脸上生成各种表情,并把它替换到其他图片或影片中,实现无缝融合。

这项技术原本用于影视作品后期制作。后来国际上有人用这项技术搞恶作剧,把明星、政要照片“换脸”至一些影片中,合成一些不存在的发言。此外,一些色情网站还把一些知名艺人(主要是女艺人)的脸植入图片或影片中,给她们带来极大伤害。在中国,目前已发现有人用其骗过支付系统的识别,也有人用于注册手机卡等。

为什么注册手机卡还要“换脸”呢?由于中共长期对民众实行大规模的监控,购买手机卡需要实名登记,上网发言需要实名认证,有时候买菜刀都需要实名制。所以,换脸可以对抗、躲避中共监管。

日本IT界软件工程师季林对大纪元记者说,科技本身并不存在好与坏,只有用的人才有好坏之分。科学发展虽然给生活提供便利,却无法提升人类道德。人类如放纵自己欲望,科学反而会带来“不可挽回的灾难”。

责任编辑: 刘诗雨  来源:大纪元 转载请注明作者、出处並保持完整。

本文网址:https://www.aboluowang.com/2022/0419/1737297.html