开源人工智能工具用错了,数据安全就容易出问题

开源人工智能工具用错了,数据安全就容易出问题,专家建议咱们得提高对敏感信息的保护意识。人工智能技术现在到处都是,给生活带来了很多便利,但也带来了新的安全问题。最近国家安全部门曝光了一个例子,说有的单位用开源工具不小心,把内部的重要数据泄露了。这事儿提醒咱们,在享受技术带来的好处时,也得时刻注意潜在的危险。那个单位的工作人员处理文件时,没按照安全规矩办事,直接用了网上随便能找到的开源人工智能框架。因为电脑系统默认连到了公网,还没设密码锁,结果境外的IP地址就把存着的重要资料给下载走了。这不仅是单位管理制度有漏洞,也说明有些人对这些工具的风险没太搞懂。 什么是开源大模型?到底有啥安全风险呢?专家说,这是一种把架构、参数和训练数据这些核心技术全公开的模型,大家都能免费用还能修改。现在网上这类模型特别多,能干的事也不少,从写文章到画图都能干。可就是这种方便也让人头疼,数据泄露的隐患太大。中国网络空间安全协会人工智能安全治理专业委员会委员王媛媛觉得,数据安全是开源大模型最要命的风险之一,很多普通用户都忽略了这点。她解释说,人工智能工具为了帮人分析数据、学习东西,一般都会存数据。这就意味着你传上去的任何东西都可能被留在系统里。 要是你传上去的文件里有身份证、财务账单或者是没公开的工作计划这些敏感内容,其实就是在拿隐私冒险。那这些被存起来的数据是怎么被偷走的呢?专家说主要有两个路子:一是有的开发者能直接进后台看你的信息;二是公开的代码容易被黑客盯上利用漏洞搞破坏。最近全球范围内这种事儿挺多的,给各行各业都提了个醒。面对这么复杂的网络环境该怎么办?王媛媛建议老百姓在平时用这些工具时脑子一定要拎清,千万别传身份证和财务资料之类的东西。 对于企业和机构来说,在用人工智能处理内部数据或者训练模型的时候要特别小心点。她强调说“私有化部署”很管用,就是把数据和模型都放在本地服务器里不连外网隔离起来。当然这得花点钱建服务器和雇专业人员来管,但对那些管着重要数据的单位来说这是必要的开销。 人工智能发展得太快了改变了很多东西,不过安全这块儿还得跟上才行。这次的案例说明光有技术不行还得管好规矩。不管是个人还是单位都得主动去了解这些风险守好规矩多做点防护措施。只有把安全的基础打牢了才能让技术更有活力推动数字经济好好发展下去。