通信世界网消息(CWW)随着AI技术发展,AI换脸技术被不法分子滥用,给社会带来诸多隐患。在2025年世界移动通信大会(MWC)上,AI换脸检测技术成为焦点。荣耀等企业展示了相关技术成果,该技术在金融、社交、视频会议等多领域应用前景广阔。但目前面临技术层面迭代适配与性能提升难题、市场层面认知不足及应用推广困境、法监层面法规空白与监管协调瓶颈等挑战。建议:一是推动算法革新,依数据提升复杂场景识别。二是推动市场推广,借活动提升认知与应用。三是完善法律监管,立法规强化部门间协同。
基本情况
在2025年世界移动通信大会(MWC)上,AI换脸检测技术成为备受瞩目的焦点。随着AI技术的迅猛发展,AI换脸技术被一些不法分子用于网络诈骗、诽谤等违法犯罪行为,带来了很大的社会隐患。根据Entrust网络安文件伪造同比2023年增加了244%。2023年11月至2024年11月,全球92%的企业经历了身份欺诈,但2024年61%的高管表示他们尚全研究所的数据,2024年每五分钟就发生一次深度伪造攻击,数字未订立应对深度伪造风险的任何协议。德勤公司报告显示,在财务损失方面,生成式人工智能可能使欺诈损失从2023年的123亿美元增加到2027年的400亿美元,复合年增长率为32%。在此背景下,AI换脸检测技术的重要性愈发凸显。
荣耀推出的AI换脸检测技术备受关注,其早在2024年9月举行的柏林消费电子展上,就正式推出全球首个基于设备端的AI换脸反诈检测技术,并宣布将于2025 年4月在全球范围内商用该技术。该技术基于深度学习模型,通过分析图像中的面部特征和行为模式,能够实时识别出AI生成的伪造内容,可检测出人眼可能忽略的深度伪造内容中的缺陷,例如眼神接触、光线、图像清晰度和视频播放等方面的异常,从而阻止人们继续参与可能危及其安全的活动,为个人、中小企业和各行业在享受数字通信便利的同时,提供了隐私泄露和欺诈风险的防护。
从应用场景来看,AI换脸检测技术在多个领域展现出了广阔的应用前景。在金融领域,可用于远程开户、转账等业务环节的身份验证,有效防范不法分子利用AI换脸技术冒充客户进行诈骗,保障金融交易安全。在社交平台方面,能够帮助平台识别虚假账号发布的AI换脸虚假信息,维护社交网络环境的真实性与安全性,保护用户免受虚假内容的误导与侵害。在视频会议场景中,企业可以借助该技术确保参会人员身份真实,防止会议被恶意干扰或商业机密因身份冒充而泄露。
问题与挑战
一是技术层面面临迭代适配与性能提升难题。尽管AI换脸检测技术取得了一定进展,但当前技术仍存在一些局限性。一方面,AI换脸技术迭代速度快,新的换脸算法和手段不断涌现,检测技术需要持续更新才能应对。例如,一些新型AI换脸技术能够更精准地模拟面部表情、皮肤纹理以及光影效果,使得检测难度大幅增加。现有的检测模型可能无法及时识别这些经过优化的换脸内容,导致误判或漏判。另一方面,检测技术在复杂场景下的性能有待提升。在实际应用中,视频可能存在分辨率低、光线复杂、遮挡等问题,这会影响检测模型对人脸特征的提取与分析,降低检测准确率。比如在监控视频中,由于摄像头质量、拍摄角度和环境光线等因素,AI换脸检测技术的效果可能大打折扣。
二是市场层面存在认知不足及应用推广困境。市场对AI换脸检测技术的接纳程度还有待提高。许多企业和个人没有充分意识到AI换脸带来的潜在风险,因而缺乏应用检测技术的积极性。以一些小型企业为例,其在业务流程中较少考虑到AI换脸欺诈的可能性,认为自身业务规模小,不会成为被攻击的目标,所以在安全防护方面投入较少,对AI换脸检测技术的应用意愿低。另外,技术的应用适配存在较大难度。不同行业、不同企业的业务流程和安全需求差异巨大,很难有一款通用的AI换脸检测方案能够直接满足所有场景。例如,金融行业对身份验证的准确性和安全性要求极高,而娱乐行业在内容审核中对检测效率和误报率有不同的侧重。
三是法监层面遭遇法规空白与监管协调瓶颈。目前,针对AI换脸检测技术以及AI换脸行为的法律法规尚不完善。在AI换脸检测技术应用过程中,涉及到数据隐私、检测结果的法律效力等诸多法律问题。例如,检测技术在获取和分析人脸数据时,如何确保符合严格的数据隐私保护法规,避免对用户个人信息的不当收集与使用,仍然缺乏明确的法律指引。对于AI换脸检测技术在司法实践中的应用,如检测结果能否作为有效证据、证据的采信标准等问题,也没有清晰的法律界定。从监管角度来看,AI换脸技术应用范围广泛,涉及多个行业和领域,导致监管主体分散,监管协调难度大。不同部门之间在监管职责、标准和方式上存在差异,容易出现监管空白或重叠的情况。
相关政策和建议
一是推动算法革新,依数据提升复杂场景识别。针对新型换脸技术,企业、高校与科研机构共同开展算法优化研究,通过分析新换脸算法的特点,改进检测模型,提高对精准模拟面部表情、皮肤纹理及光影效果的识别能力,降低误判和漏判率。研发团队针对复杂场景进行专项研究。收集大量不同分辨率、光线条件、存在遮挡情况的视频样本,建立复杂场景数据库。运用数据增强技术扩充样本数量,训练检测模型,使其能更好地适应复杂场景。例如,利用深度学习算法对低分辨率视频进行超分辨率重建,提高图像质量,辅助检测模型准确提取人脸特征;开发基于多模态信息融合的检测方法,结合声音、姿态等信息,提升在光线复杂、遮挡等场景下的检测准确率。
二是推动市场推广,借活动提升认知与应用。加强对AI换脸检测技术的宣传推广,组织行业研讨会、技术交流会、产品演示会等活动,邀请专家、企业代表等参与,增进企业和个人对AI换脸风险及检测技术优势的了解。例如定期举办AI安全技术论坛,设置AI换脸检测技术专题板块,分享行业最新案例与技术成果。建立AI换脸检测技术应用标准和模板,针对不同行业的常见业务场景,制定相应的应用指南与解决方案示例,降低企业应用门槛。例如,针对金融行业的远程开户场景、社交平台的内容审核场景等,分别制定详细的技术应用标准与操作流程。培育专业服务团队,为企业提供技术咨询、定制化开发、系统集成等一站式服务,助力企业快速将AI换脸检测技术融入业务流程。
三是完善法律监管,立法规强化部门间协同。加快完善相关法律法规,明确AI换脸检测技术应用过程中的数据隐私保护规则、检测结果的法律效力等关键问题。例如制定专门的AI数据隐私保护法,明确规定在AI换脸检测中,数据收集、存储、使用、共享等环节的合法边界;出台相关司法解释,明确检测结果在司法诉讼中的证据地位与采信标准。建立健全统一协调的监管机制,明确各监管部门在AI换脸技术监管中的职责分工,加强部门间的沟通协作与信息共享。例如,由网信部门牵头,联合公安、工信、金融监管等部门,建立常态化的联合监管工作小组,定期召开会议,共同研究解决AI换脸技术监管中的难题,形成监管合力,为AI换脸检测技术的健康发展营造良好的法律与监管环境。