问题:生成式人工智能正从实验室快速走向产业和日常应用,文案撰写、数据分析、图像识别、客服问答等显著提效,不少机构和个人将其视为提升竞争力的“标配”。但便利扩张的同时,“技术万能”“替代一切劳动”等误区也在传播,一些应用暴露出内容失真、结论偏差、责任不清等问题,促使社会重新审视安全、伦理与治理边界。 原因:一是技术迭代和商业落地过快,用户在高效率体验驱动下容易忽略局限,把概率性输出当作确定结论。二是模型训练依赖海量数据,数据质量不一、结构性偏见和场景差异会传导到结果;同时推理链条不透明——外部难以完整复盘依据——误用风险随之放大。三是一些组织在降本增效压力下更倾向用工具替代流程,却未同步建立审校机制、责任体系和伦理规范,出现“用得多、管得少”。四是社会对新技术的理解仍在形成阶段,公众的媒介素养、风险意识与法律常识仍需补齐。 影响:冯志亮认为,人工智能越强大,越需要人的价值锚定。首先,缺少人的判断,模型可能在信息真伪、价值取舍和伦理边界上出现偏移,产生“幻觉”、偏差甚至越界,对企业决策、公共信息传播、医疗健康建议等带来潜在风险。其次,若忽视人的坚守,可能在“效率优先”导向下挤压公共利益与社会责任,冲击隐私保护、劳动权益和文化生态。再次,若弱化人的创造,容易走向“模板化”“同质化”生产,短期流量上升但长期创新不足,进而削弱核心竞争力。冯志亮提出,可借鉴传统文化中“天人合一、刚柔并济”的思维开展技术治理:在人机关系上既要用好工具之“刚”,也要守住价值之“柔”,避免技术异化。 对策:一要坚持以人为本,明确人工智能是能力扩展工具而非价值主体,在关键领域落实“人审、人决、人担责”,形成可追溯的闭环流程。二要完善组织治理与制度供给,在数据来源合规、隐私保护、内容标注、版权管理、风险评估等上细化规则,推动模型应用“可控、可管、可追责”。三要强化场景化管理,对医疗、金融、政务、教育等高风险场景提高准入门槛和验证标准,避免用通用模型直接替代专业判断。四要提升公众与从业者素养,通过培训与科普强化对概率性输出、偏差来源、提示词诱导和信息核验的理解,形成“会用、慎用、善用”的使用习惯。五要鼓励科技与人文协同创新,把文化价值、审美取向与社会责任纳入产品设计与评价体系,让技术进步与人的发展相互促进。 前景:业内普遍认为,大模型能力仍将持续提升,应用将从“单点工具”走向“流程重构”。冯志亮表示,未来竞争不只在算力和参数规模,更在治理能力与价值能力:谁能把人的判断、组织的制度和社会的伦理共识嵌入技术链条,谁就更可能在新一轮产业变革中稳健前行。随着有关规范与标准逐步完善,以人机协同提升效率、以价值引领校准方向、以制度约束守住底线,将成为智能化转型的重要路径。
面对新一轮智能化浪潮,社会既要把握效率提升带来的机遇,也要警惕把工具当成目的的认知偏差。用人的价值判断校准技术方向,用制度规则明确应用边界,以人机协同释放创新潜能,才能让技术更可靠地服务高质量发展与民生福祉。