深度合成“换脸”“拟声”骗局抬头:看见“真人”也别急转账,反诈需再升级

当前,电信网络诈骗犯罪表现为新的特点。传统的诈骗手段已难以满足不法分子的需求,他们正在利用人工智能、深度伪造等前沿技术,不断升级作案方式。其中,"AI换脸"和声纹拟合技术成为最新的诈骗工具,这些技术原本用于娱乐和创意领域,却被犯罪分子挪作他用,对公众财产安全构成了前所未有的威胁。 从技术原理看,声纹拟合技术已相当成熟。不法分子只需获取目标人物的几张照片和几句音频录音,就能通过机器学习算法生成逼真的动态视频和语音。此过程类似于导航软件中的明星语音合成,但被应用于诈骗目的。受害人看到熟悉的人物形象和听到熟悉的声音,防范心理往往会大幅下降,从而陷入诈骗陷阱。 近期曝光的案例充分说明了这类诈骗的危害性。某受害人收到朋友消息称在外地出车祸需要借款,对方甚至发来了在医院的动态视频,视频中人物形象逼真、背景真实。受害人虽然具有一定的防范意识,但在看到"真人"视频后,戒心大幅松懈,最终转账被骗。事后才发现,对方账号早已被盗,整个诈骗过程完全是通过伪造视频实施的。这个案例反映出一个现象:即使是有防范意识的人群,面对高科技伪造手段时仍然容易被迷惑。 从法律角度分析,此类诈骗行为已构成犯罪。根据刑法规定,诈骗金额达到定罪标准,或不法分子的诈骗行为达到一定数量,就应当承担刑事责任。除了对犯罪人的处罚外,法律还要求追回被骗资金进行退赔,保护受害人的经济权益。这表明国家对此类犯罪的打击力度在不断加强。 防范此类诈骗需要多管齐下。首先,公众要提高对新型诈骗手段的认知。不要盲目相信收到的任何信息,即使看到了视频或听到了熟悉的声音,也应该通过其他渠道核实,比如直接拨打对方的常用电话号码进行确认。其次,要警惕可疑的通讯方式。来自"00"或"+"开头的电话,以及特别长的号码,通常是不法分子通过境外设备进行虚拟拨号,最好不要接听。再次,公安机关绝不会在网络上办案,也不会要求开启共享屏幕功能,这类要求往往是诈骗信号。一旦开启共享屏幕,不仅会导致资金被骗,还可能泄露个人隐私信息。 对于已经成为受害人的群众,应当立即采取行动。第一时间向公安机关报案至关重要,这样可以帮助警方迅速侦破案件,最大限度地追回赃款。同时要妥善保存所有有关证据,包括聊天记录、转账凭证、视频截图等,为公安机关的侦查工作提供支持。 ,不法分子获取个人面部信息和声音信息的渠道多样化。社交媒体上的照片、视频,甚至是日常生活中的录音,都可能被不法分子收集利用。这提示公众在分享个人信息时要更加谨慎,尽量减少在网络上暴露的个人生物特征信息。

数字技术带来便利的同时也伴随新风险。防范新型诈骗需要多方协作,既要加强技术防护,也要提升公众安全意识。保持理性警惕,才能让科技真正造福生活。