“深度伪造”真假难辨 有效监管成为关键



图为上海科技创新成果展上的机器人展品。新华社发

近期,美国流行乐歌星泰勒·斯威夫特的“AI伪造照片”事件掀起轩然大波,甚至惊动了美国白宫。虽然利用AI技术制作虚假信息早已有之,但随着生成式AI在过去一年多时间内的快速发展,对视频、图片、音频进行深度造假技术更加成熟且普遍,造假的成本也更加低廉。如何在发展、利用生成式AI的同时,有效监管和减少深度伪造产生的虚假信息,成为全球关注的一个重要议题。

眼见不一定为实

“深度伪造”技术利用机器的深度学习,实现图像、声音、视频的篡改、伪造和自动生成,产生高度逼真且难以甄别的效果。

近日,大量由AI生成的泰勒虚假色情、血腥照片在多个社交平台疯传,浏览量已超过千万,引发社交媒体震动,也引起了美国白宫的注意。实际上这不是泰勒第一次成为AI“深度伪造”的受害者。就在不久前,有人使用AI技术仿造了她的声音和形象来为商品进行推广,让消费者误以为这是泰勒代言的商品。

白宫新闻秘书卡琳·让-皮埃尔表示:“我们对媒体发布的关于泰勒照片(更确切地说是虚假图像)流传的报道感到震惊,这种情况令人担忧。虽然社交媒体平台在内容管理方面作出了自己的独立决定,但我们认为他们在执行自己规则方面可以发挥重要作用,以防止错误信息和未经同意的真实人物的私密图像传播。”她还补充称,“执法不到位对于女性影响更大,毕竟她们是网络骚扰的主要目标”。

除了泰勒,同样深受其害的还大有人在。

印度当地媒体《经济时报》1月15日报道,此前一段视频显示,印度的板球传奇人物坦杜卡支持一款名为Skyward Aviator Quest的游戏应用程序,并称他的女儿通过使用该应用程序预测游戏结果,每日收入高达18万卢比。这名板球运动员回应称,“这些视频是假的,技术滥用现象猖獗,令人不安。请大家积极举报此类视频、广告和应用程序。社交媒体平台需要保持警惕并响应投诉。他们的行动对于阻止错误信息和深度伪造的传播至关重要。”

去年11月,美国新泽西一所中学30多名女生的照片被篡改和传播,她们呼吁学校和政府采取措施;西班牙某小镇的女学生也发现自己的“裸照”在学校和社区里流传,给她们的身心带来不小冲击,当地警方发现这都是有人使用廉价应用程序炮制而成。

有报道指出,在全球化时代,社交媒体成了滋生虚假信息的温床,凭借一段原始语音、一张原始图片,犯罪分子就可以编造出一段真假难辨的谣言。每个人都有可能成为“AI恶意操作”的受害者。

影响政治社会秩序

“深度伪造”技术不断被滥用,而“反深度伪造”技术仍未成熟,这一局面或将对个人隐私、行政执法、司法取证等多方面带来困扰和威胁,引发社会忧虑和信任危机。

国际社会认为,“深度伪造”技术首先给个人和企业带来损害。制作虚假色情视频是“深度伪造”技术最常见的运用方式之一。“深度伪造”技术可能侵害肖像权、隐私权和知识产权等权利,也可能被用来实施诈骗、敲诈勒索等违法犯罪活动。2019年,全球首例AI诈骗案发生在英国,一名诈骗者利用先进的AI语音模仿软件,假扮公司高层,成功骗取了一家英国能源公司总经理的22万欧元。

其次是国家安全和公共安全受到威胁。美国专家西特伦举例说,“深度伪造”可能会影响美国大选,制造出一些候选人没做过的“错事”,这些影响是不可估量的。2018年4月,一段主角为美国前总统奥巴马的视频,在推特上获得200多万次的播放和5万多个点赞。奥巴马在视频中抨击时任总统特朗普。但实际上并非出自奥巴马。2018年5月,特朗普宣布中止全球气候变化协议,随后被比利时某政党利用“深度伪造”技术篡改,做出一个“特朗普宣告比利时政府也应退出”的假视频,引起比利时民众的公愤。

第三是引发社会忧虑和信任危机。专家认为,“深度伪造”会加深公众对政府的不信任感。随着公众意识到“深度伪造”的危害,他们会对一般的真实视频产生怀疑,更容易把真实视频当作虚假视频,迷失在真假信息之中,对官方澄清也会持怀疑态度。“泰勒是影响力很大的明星,要是我们普通人也被深度伪造了不雅照可怎么办?”“AI发展得太快太恐怖了,我都不敢想如果是我那真的是跳进黄河也洗不清了。”“支持AI立法,滥用危害太大了。”“这真的和我们的生活息息相关,AI照片视频的人类面部表情已经很像真人了,声音也能模仿得一样,这样的骗局让普通人难以分辨。”这些声音传达出了公众对AI“深度伪造”技术发展的强烈不安。

及时完善立法

尽管AI技术给我们的生活带来了新的挑战,但国际社会普遍认为,不能“因噎废食”,拒绝发展相关技术。在技术进步的过程中,其本身就可以用来对抗“深度造假”行为。

专家学者、相关领域的企业机构想过不少应对办法。比如在传播之前标明“数字出处”。去年12月,一款名为mist的隐形图片水印在网上发布,该水印用于抵抗AI模型对图片的训练和抓取,这一水印能够极大程度干扰AI模型,使之生成的图片遭受不同程度的破坏。此外,也有开发者建议让AI生成平台、公司给相关的AI生成软件加上隐形水印机制,以快速识别AI并进行溯源,各个社交平台也应以技术手段加强对于疑似AI生成图、文、视频内容的识别功能。

还可以利用技术手段检测伪造。2018年6月,美国达特茅斯学院和纽约州立大学奥尔巴尼分校的计算机科学家宣布开发了一个程序,通过在视频中观察研究对象眨眼时眼睑运动是否异常,来检测“深度造假”。当然,在攻防过程中,“深度造假”技术可能随着检测技术演进而不断升级。

另有专家认为,除了技术解决方法之外,法律手段也要有所作为。在以技术制约技术的同时,及时完善立法,不断加强执法,对一些技术解决不了的问题应该立法重罚,追究刑事责任。比如规定制作或分享“深度仿冒品”,构成诽谤、欺诈或盗用他人肖像等民事和刑事违法行为等。早在2019年,中国便发布了《网络音视频信息服务管理规定》,旨在防止传播利用基于深度学习、虚拟现实等新技术新应用制作的假新闻音视频(即深度伪造)。

“深度伪造”是人工智能“深度学习”技术进步的产物。它有许多有价值的应用,例如出于教育目的而制作历史人物的音频或视频。但是,“深度伪造”也可能被用于险恶目的。如何控制技术向善除恶,是一个需要不断学习的课题。各国应加强交流合作,通过技术和法律等手段,规避人工智能相关风险,使之健康有序发展。
版权声明

本文收集整理自网络,如有侵权,请联系删除。

分享:

扫一扫在手机阅读、分享本文

网友评论

标签列表