多部门密集提示生成式应用安全风险,“数字助理”进职场倒逼管理方式重塑

一、问题浮现:安全预警密集发布 3月8日至14日,工信部网络安全威胁和漏洞信息共享平台、国家互联网应急中心等机构连续发布技术通告,提示某类人工智能工具存密钥存储缺陷、配置漏洞等高风险问题,可能引发系统失控和数据泄露。据不完全统计,全国已有数十所高校及金融机构采取禁用或限制措施,涉及的技术应用由此进入更严格的监管视野。 二、风险溯源:技术跃进与监管滞后 业内人士认为,此次风险集中暴露出两上矛盾:其一,技术迭代速度快于安全标准和防护体系建设,部分企业抢占市场时弱化了基础安全;其二,智能化工具在办公场景的使用已从个人试用扩展到组织级部署,但相应的管理制度、审批流程和责任划分尚未同步建立。中国信通院2023年报告显示,我国企业级AI应用事故中,83%与权限管理和数据流转环节缺口有关。 三、管理挑战:双重神经系统的博弈 随着智能辅助工具逐步成为“数字员工”,传统管理方式面临新的挑战。某央企数字化转型项目组负责人表示:“工作汇报可能被算法多次加工,管理者更难判断结论从何而来。”更需要警惕的是,算法的介入正在改变组织中的信息流与决策链条——过去基于信息不对称形成的管理优势被削弱,管理者不得不在“保持决策自主”与“提高算法依赖效率”之间重新找到平衡。 四、应对策略:建立技术治理新框架 目前,有关部门正推动三上举措:制定智能工具分级分类的安全标准;建立企事业单位使用白名单制度;开展面向管理者的数字领导力培训。清华大学公共管理学院建议,应通过法律层面明确“人类对最终决策与解释负责”的原则,划清算法辅助的权责边界。 五、发展前瞻:人机协同将重构生产关系 尽管风险不容忽视,智能化转型仍是大势所趋。国务院发展研究中心预测,到2025年,我国60%以上的组织将建立人机协同工作机制。专家指出,未来竞争力不只取决于会不会用工具,更取决于能否设计并管理好人机协作关系,这也意味着教育体系、组织流程与考核机制需要相应调整。

技术提升效率的同时,也带来了新的风险。近期密集预警传递出的信息很清晰:必须守住安全底线,合规不能越线。在此基础上,能否把智能助手从“个人工具”纳入“组织能力”,用制度划清边界、用技术实现控制、用培训提升使用与管理水平,将直接影响数字化转型的稳定性与可持续性。只有在可控前提下把工具用好,效率收益才能真正转化为发展动力。