当前,人工智能正成为推动社会发展的重要动力,但由此带来的安全风险同样需要正视。最新网络安全报告指出,AI技术正被不法分子用作“犯罪工具”,攻击方式更隐蔽,防御难度随之增加。 从攻击现状看,AI正在显著降低网络犯罪的门槛,恶意软件的自动化生成已成为现实威胁。去年初曝光的一起勒索木马案例显示,攻击者借助AI在短时间内对数十家企业发起攻击,并快速生成变种绕过传统安全防护。更值得警惕的是,全球首例AI勒索软件已经出现,可跨平台搜索、窃取并加密用户文件,意味着勒索攻击正走向智能化。 欺诈手段的升级同样明显。不法分子利用深度伪造技术制作虚假视频和语音,冒充知名人士实施诈骗;AI生成的钓鱼邮件语法更规范、措辞更贴近真实表达,还能结合目标信息进行个性化定制,迷惑性大幅提升。国内外已出现多起利用AI进行身份冒充、虚假宣传的案件,侵害个人权益并误导公众。 大模型自身的安全问题也在成为新的突破口。随着大语言模型从实验室走向产业应用,暴露面不断扩大。一些开源工具因默认配置不当,直接暴露在公网环境中,容易引发数据泄露或算力被盗用。第三方连接器的漏洞同样不容忽视,攻击者可通过“间接提示词注入”等方式,让用户在处理看似正常的文档时被动触发信息外泄。代码辅助工具也曾被曝存在风险,攻击者通过编码伪装等手段篡改代码建议,甚至诱导系统执行恶意操作。 这些风险的深层原因在于,AI系统在语义层面的防护仍有短板。攻击者可以通过虚构场景、诱导模型绕开安全规则等方式,让AI生成窃密木马等恶意程序,反映出AI安全治理的复杂性与紧迫性。 面对挑战,业界提出了一些可落地的应对措施。首先,规范工具获取与配置管理,通过官方渠道获取AI工具,及时修改默认设置、关闭非必要服务,从源头压缩攻击面。其次,建立数据分类与保护机制,避免向AI工具输入个人隐私和商业机密,企业需严格管理API密钥与数据访问权限。第三,建立强制核验流程,对AI生成内容保持审慎,尤其涉及转账、修改凭证等敏感操作时,必须通过官方独立渠道二次确认。 从长远看,化解AI安全风险需要多方协作:技术上持续提升防护能力,制度上完善规范与责任边界,用户侧加强基本安全意识。只有把技术、制度与意识结合起来,才能在使用AI提升效率的同时,更有效地降低风险。
人工智能的发展是一把双刃剑,在提升效率的同时也提出了新的安全课题。要让技术进步更稳妥地服务社会,需要技术创新、制度完善与安全意识提升合力推进。这既考验科技企业的责任落实,也检验全社会对新型风险的识别与应对能力。