软件介绍:
中国互联网络信息中心日前发布了《生成式人工智能应用发展报告(2025)》。报告显示,我国生成式人工智能产品用户规模已达5.15亿人。报告同时也提出,随着生成式人工智能的高速普及,其带来的换脸换声、版权侵权、学术滥用等问题也越发凸显。这些问题在实践中存在哪些表现?如何治理和应对这些风险挑战?
利用AI换脸换声生成虚假广告案件频发
生成式人工智能的多模态能力,可以让用户轻易给视频中的人物换脸换声,甚至直接生成完全虚构的视频,给不法分子带来可乘之机。近期就发生了多起AI换脸换声,生成虚假广告的案件。比如,有的伪造奥运冠军推荐土鸡蛋,还有的伪造医生形象推销保健品,严重误导公众。
这些换声和换脸的AI深度合成是如何制作出来的呢?面对这些以假乱真的视频,又该如何识别?
业内人士告诉记者,随着AI换声换脸技术的越来越成熟,已经足以达到以假乱真的地步。分辨一段视频或者声音是否是经过深度合成,最好的办法还是通过AI去识别。即用AI去识别AI。
人工智能大模型研究员潘季明:从技术角度来说,最快的方式还是基于AI的方式去进行识别,如专门的深度伪造鉴别模型,用于分析视频和音频中的不自然的特征,如检测眨眼频率、面部肌肉运动的生理一致性、音频与纯嘴唇同步率、光源一致性等细微的物理或生理破绽。
专家:治理核心在于全面落实内容标识制度
近两年,AI深度合成名人、换脸换声的视频层出不穷、屡禁不止。对此,专家表示,治理的核心在于全面落实内容标识制度。
北京航空航天大学法学院副教授赵精武:我国自2025年9月起正式施行了《人工智能生成合成内容标识办法》,其中明确要求,所有AI生成的文字、图片、视频等内容必须添加显式标识以"亮明身份",同时鼓励添加数字水印等隐式标识。平台企业应当依据《人工智能生成合成内容标识办法》,从源头嵌入标识机制,为AI生成内容附加不可篡改的数字水印,并确保这些标识在经过剪辑、压缩后仍能被准确识别。
专家表示,AI深度合成的使用者在通过AI制作视频时,应该有一条侵权法律界限,要合规合法使用人工智能深度合成。
北京航空航天大学法学院副教授赵精武:在明确合法性边界方面,需要严格区分AI换脸技术的合法应用与非法滥用的边界。合法应用通常包括影视制作、教育教学、医疗康复等具有正当价值?