股票融资有期限 合成语音、虚拟场景……真假难辨的AI诈骗,如何应对?_技术_郭先生_视频
上传一张静态照片就能生成动态视频,几秒钟的语音也能克隆出声音……这些情节并非科幻电影中的桥段,而是我们身边正在发生的真实事件。如今,\"AI换脸\"技术成为侵权和违法的重灾区股票融资有期限,给社会带来了前所未有的挑战。
为了规范人脸识别技术的使用、保护个人隐私,国家互联网信息办公室与公安部联合发布了《人脸识别技术应用安全管理办法》。这一办法对人脸信息的处理要求、操作规程、安全规范以及监管责任等进行了明确规定,并将在2025年6月1日起正式实施。
人脸识别技术的广泛应用与个人隐私安全息息相关。由于人脸具有唯一性、无法改变性以及不可匿名性,一旦这些信息泄露,可能会对个人的生命财产安全造成严重威胁,甚至对社会公共安全产生风险。
近年来,AI诈骗的形式层出不穷,涉及换脸、变声、对口型等手段。以贵州省凯里市的吴西福为例,他介绍了一个典型案例:某科技公司负责人郭先生接到一通好友的紧急视频电话,表示自己在外地投标需要一笔保证金,并要求通过郭先生的公司账户转账。郭先生看到视频中的好友,确认无误后便没有等待转账成功的通知,直接转账。然而,郭先生在未收到款项时再与朋友联系,才发现自己被骗。
展开剩余68%类似的案件还有宁夏银川市的张先生。他也接到了所谓“老板”的视频电话,声称因为紧急事务需要一笔资金。张先生在视频中看到的“老板”与平时无异,毫无戒心的他立即转账。直到之后才发现自己被骗。
这些案例正是“AI换脸”技术的典型应用。如今,通过AI技术,视频中的人物面孔可以在瞬间被替换,且即便是实时视频通讯也能实现“换脸”。这种技术的进步使得普通人很难辨别真假,尤其当骗子通过这类技术伪装成亲友时,防范难度极大。
AI技术诈骗的类型多种多样,主要有以下几种:语音合成诈骗、不法分子利用AI合成亲友的声音,让受害人误以为是熟悉的人求助;图像生成诈骗,利用AI生成虚假的照片或视频,制造紧急、合理的情境,骗取个人信息与财产;智能客服诈骗,诈骗分子制作虚假的智能客服系统,诱导受害人提供个人信息或进行转账操作;AI情感诈骗,通过AI大语言模型伪造情感关系,进一步获取受害人的私人信息。
吴西福还警告,在“共享屏幕”诈骗中,犯罪分子利用“提高信用卡额度”或“航班退费”等借口,诱使受害人下载恶意软件并开启屏幕共享功能,这样就能实时监控受害人的手机和电脑,窃取个人信息。
新型AI诈骗带来的危害更为广泛。与传统的电信诈骗相比,AI诈骗的受害者身份更加多元,骗局更具迷惑性,且很难追踪到犯罪分子。通过AI技术进行的诈骗,不仅可能导致财产损失,还可能引发信息泄露,甚至对受害人产生心理创伤。越来越多的受害者因此感到焦虑、抑郁,甚至走上犯罪的道路。此外,频发的AI诈骗案件可能导致公众对社会安全产生不信任,严重时可能引发恐慌。
随着这些新型AI诈骗案件的增多,侦破工作面临巨大挑战。警方表示,只有不断提升技术侦查能力,创新打击手段,加强跨地区的协作,才能有效应对这种新型犯罪。
为了避免成为受害者,吴克刚提出了两条防骗建议:第一,在视频通话时,可以要求对方做一些特定动作,如眨眼三次、摸鼻子,或者在屏幕前晃动遮挡物。如果画面出现延迟或不自然的变化,可能就是在使用“AI换脸”技术;第二,可以通过提问一些只有对方知道的个人问题(如生日、电话号码等)来验证对方身份的真实性。
此外,我们还应提高个人信息安全意识,防止个人面部、声音、指纹等信息被非法获取。贵州警方提醒公众,不要轻易相信陌生人,不要随便泄露身份证号、家庭住址等重要信息,尤其是不要将个人照片或身份证照片保存在手机中。此外,在网上使用人脸、声音、指纹等数据时,要谨慎授权,避免被用于非法用途。
公安机关也应加强反诈宣传,特别是在校园、社区和企业中推广反诈知识,帮助公众提高防骗意识。与此同时,警方还将加大对“AI换脸”诈骗犯罪的打击力度,并对参与该类诈骗的技术提供者依法追责。
最后,警方提醒:使用“AI换脸”实施诈骗的行为,虽然依托新技术,但其本质与传统诈骗行为无异。任何实施诈骗的行为都将依法追究责任,无论是直接参与诈骗的人员,还是为诈骗提供技术支持的团伙,都会受到严厉的法律制裁。
发布于:山东省