麻省理工学院(MIT)做了个研究,专门挑了代理人工智能(AI)这块儿的安全隐患跟开发者的责任来说事儿。现在代理AI发展得很快,特别是OpenAI这种公司,好多行业都在用了。不过MIT这帮人一调查就发现了问题,他们找了30种主流的代理AI系统去细抠,结果发现透明度太差了,安全协议也跟不上,这让业界觉得得重视起来。Leon Staufer是剑桥大学的,他也参与了这个研究。他说现在开发者给的风险披露太少了,就像是在玩一场安全噩梦一样。调查显示那30个系统里有12个根本没有监控功能,企业没法知道这些代理在干啥。而且绝大部分系统也不告诉用户自己是AI,搞得用户根本分不清是真人还是机器。报告还提了好多建议。比如用开源框架能提高系统的可审计性,开发者应该主动增强透明度,让用户信任点。发布产品的时候得附上安全评估报告,让用户知道风险在哪。MIT还呼吁政策制定者对代理AI进行监管。企业也得定期搞安全测试和合规审查。总之这篇报告不光说了现状,还给开发者和企业指了条路。以后代理AI怎么进步都得先重建公众的信任才行。