(评论员 黄柳茵)2024年3月,南京某金融平台20余个账户遭异地非法登录,5名用户被盗刷资金,罪魁祸首竟是AI生成的动态人脸视频。无独有偶,山东莱西的梁某被AI换脸的“军官”诈骗731万元,赵某夫妇因中介用AI换脸骗贷莫名背上25万元债务。一年间多起典型案件敲响警钟:当深度合成技术走出实验室,诈骗分子的“武器库”正在升级,而我们的安全防线亟需加固。
AI换脸诈骗的泛滥,本质是技术红利被恶意透支的产物。过去诈骗需要伪造实体证件,如今只需少量人脸素材,通过网络唾手可得的换脸软件,就能生成足以以假乱真的动态影像。南京案中,犯罪嫌疑人符某仅凭非法获取的公民信息,就成功绕过金融平台的人脸识别系统,在十分钟内完成密码篡改与资金转移。这种技术门槛的降低,让诈骗从“体力活”变成“技术活”,且呈现规模化、跨区域特征——符某一案就涉及195万余条公民个人信息,山东诈骗团伙更是将1300余万元涉案资金转移至境外。更值得警惕的是,此类犯罪已形成“信息窃取—技术合成—精准诈骗—资金洗白”的完整链条,传统反诈手段难以全面覆盖。
技术滥用背后,是法律、平台与个人三重防线的暂时失守。法律层面,尽管《中华人民共和国民法典》禁止伪造肖像权,《生成式人工智能服务管理暂行办法》要求标识合成内容,但面对“秒级生成”“跨平台传播”的技术特性,仍存在追责滞后问题。南京案中,检察机关创新采用“刑事打击+民事追责+综合治理”模式,实现对犯罪的全链条惩处,这反证了常规治理手段的不足。平台责任的缺位更为致命:部分金融机构过度依赖单一人脸识别,未建立多因素验证机制;社交平台对合成内容的监测技术落后,导致虚假身份视频肆意传播。而个人信息保护意识的薄弱,则为诈骗分子提供了“原料”——195万条公民信息的泄露,正是符某犯罪的关键前提。
筑牢技术时代的安全防线,需要构建“法律规制—技术反制—公众觉醒”的立体防护网。立法层面,需加快AI治理专项立法,明确深度合成技术的使用边界,将“未标识合成内容”“非法获取生物信息”等行为纳入严惩范畴。2024年9月《网络数据安全管理条例》增设生成式AI专条,2025年网信办开展“清朗-整治AI技术滥用”专项行动,这些举措正是法治完善的重要一步。平台更需扛起主体责任:金融机构应推广“人脸+密码+短信验证”的多因素认证,如南京涉案平台升级系统后已成功拦截多起攻击;互联网企业需部署AI内容检测技术,对合成视频自动添加不可见标识。
对公众而言,提升防范意识是最后一道关键屏障。辨别AI换脸可关注三大细节:生理上的眨眼频率异常、口型与声纹不同步;环境上的光影矛盾、场景重影;行为上的拒绝当面沟通、要求非常规转账等。国家反诈中心APP已嵌入深度合成检测入口,掌握这些技巧并善用工具,能有效降低受骗风险。更重要的是树立“信息保护”意识,不随意泄露人脸照片、身份证号等敏感信息,从源头切断诈骗链条。
技术本身并无善恶,正如手术刀可救人亦可伤人。AI换脸技术在影视制作、虚拟客服等领域的价值不容否定,但当它沦为诈骗工具,就必须被装进制度的笼子。南京案中,符某获刑四年六个月并公开赔礼道歉的判决,既彰显了法律的威严,也传递出明确信号:技术创新绝不能以牺牲安全为代价。
当AI技术加速融入生活,我们既要拥抱其带来的便利,更要守住安全的底线。唯有法律长出“牙齿”、平台筑牢“堤坝”、公众擦亮“眼睛”,才能让技术真正服务于人,而非成为制造伤害的利刃。这道安全防线,需要全社会共同构筑,因为它守护的不仅是每个人的财产安全,更是数字时代的信任根基。
一审:周子钧
二审:张蕾
三审:吴凡