随着人工智能技术的迅速发展和广泛应用,其带来的隐私安全问题日益凸显。国家互联网应急中心近日发布的风险提示,再次将AI应用的安全隐患推向舆论焦点。这个事件反映出公众对AI时代个人信息保护的深切关切。 调查数据揭示了青年群体的普遍担忧。接受调查的青年中,76.4%表示关注过AI智能体应用,其中83.6%的受访者对使用AI工具时的个人隐私安全问题感到担心。这一比例之高,充分说明隐私安全已成为制约AI应用推广的重要因素。 当前,AI应用的功能范围正在快速扩展。从早期的文本对话功能,逐步延伸到代理执行各类实际操作,这意味着AI可以接触和处理的个人信息范围呈指数级增长。在这一过程中,用户的隐私暴露风险也随之放大。调查显示,受访青年最担忧的三类AI工具分别为权限较高的AI智能体应用(53.4%)、智能语音助手与智能音箱(49.8%)、以及AI面试官和简历筛选系统(45.3%)。这些工具因其高权限特性和接触敏感信息的能力,成为隐私泄露的重点防范对象。 在具体的信息保护上,受访青年的态度明确而坚定。54.5%的受访者认为应严格禁止AI工具采集身份证号、护照号等法定身份证件信息;53.3%认为应禁止采集银行账号、密码等金融账户信息。此外,生物识别信息如人脸、指纹、声纹(43.0%)以及私密聊天内容与通讯记录(35.5%)也被列为需要严格保护的信息类别。这些数据反映出公众对信息采集边界的明确诉求。 中国政法大学刑事司法学院副教授、网络法学研究所副所长商希雪指出,当前AI平台应当严格履行信息采集的告知义务,确保用户在充分知情基础上做出选择。同时,广大用户也应提高安全意识,避免下载来源不明的非官方工具,防范非法采集个人信息的风险。 法律层面的完善已成为当务之急。今年全国两会期间,多名代表提出了制定人工智能法的建议,获得了广泛支持。调查数据显示,81.2%的受访青年支持国家加快出台涉及的立法,明确AI工具隐私采集的边界和违规处罚标准。这充分说明了公众对法律保护的期待。 商希雪认为,高权限AI智能体的出现,对现有法律体系构成了深层次的挑战。传统的信息保护法律框架主要针对人工操作场景,而AI的自动化、智能化特点要求法律体系进行相应调整。未来的立法工作应围绕AI自动化运转的特殊性,明确开发者、运营者、服务提供者等不同主体的具体责任边界,同时细化对违规行为的处罚标准,形成有效的法律威慑力。
关于AI时代隐私保护的讨论,本质上是对技术伦理和治理体系的反思。面对机器触碰隐私边界的新挑战,我们不仅需要完善法律,更要构建覆盖研发、应用、监管全链条的责任体系。在数字浪潮中守护个人信息安全,将成为衡量社会文明程度的重要标尺。