问题—— 不少场景中,算法已参与招生选拔、内容推荐、信贷评估等决策环节,但“为何被拒绝”“依据是什么”常难以说清。东莞“智慧冬令营”青少年人工智能通识公益课程高中学段第三课以一个申请被淘汰的情节切入:申请者竞赛与数学表现突出,却因“提交时间在凌晨”被系统判定自我管理能力不足,最终落选。看似客观的机器评分,背后却隐藏着难以被当事人理解和申诉的黑箱逻辑,引出“算法是否需要解释、公众是否享有知情权”的核心追问。 原因—— 授课主讲、广东省人大代表、北京交通大学教授余旸指出,黑箱问题并不等同于“技术神秘”,更多来自模型将复杂世界压缩为少量可计算变量后的偏差风险。一上,算法训练依赖历史数据与既定规则,若数据本身存结构性偏见,模型会在不自知中放大偏差;另一上,模型常通过“代理变量”间接刻画能力与特质,例如用“提交时间”替代“自我管理能力”。这种替代在统计上可能涉及的,却并不必然成立:凌晨提交既可能意味着拖延,也可能源于反复打磨方案、加班完成材料。若缺少因果层面的归因审视,相关性就可能被误当作结论,导致对个体努力的误读。 为便于学生理解,课程引入SHAP值等解释方法,将各变量对最终评分的贡献以直观图示呈现,让“模型为何这样判”的线索可被看见。同时设置“变量控制实验”:在其他信息不变的情况下,仅调整提交时间,模型评分出现明显跃升。对比结果提示,某些看似细小的字段可能对决策产生过度影响,进而改变个体命运走向。 影响—— 业内人士认为,该案例对青少年具有直接启示:第一,算法并非天然中立,可能把“可测量”当作“最重要”,从而忽略难以量化却同样关键的品质与过程;第二,当算法被用于筛选与分配资源时,不可解释将削弱公众信任,放大“无法申诉”的无力感;第三,社会运行对数据与模型的依赖加深,公民的知情权、申诉权与被公平对待权,需要在技术应用中得到更可操作的保障。对学校教育而言,这类讨论有助于学生在使用智能工具时形成边界意识,避免把系统输出简单等同于客观真理。 对策—— 针对“用得上、看得懂、能追责”目标,课程强调以科学方法守护逻辑与公正:其一,在技术层面推进可解释性实践,面向重要决策场景提供可核验的归因说明,识别关键变量是否存在不当权重;其二,在流程层面完善数据治理,提升数据采集与标注质量,减少偏差被“训练固化”;其三,在应用层面设置人机协同与复核机制,对高风险场景保留人工审查与申诉通道,避免“一次打分定终身”;其四,在教育层面提升学生的数据思维与伦理素养,把“提出问题、控制变量、验证假设”的科学训练引入日常学习,培养对算法结论的审慎态度。 前景—— 据了解,东莞市教育局推出的“智慧冬令营”系列课程由余旸领衔,联合中小学信息技术骨干教师团队打造,共设20节微课,按小学低年段、小学高年段、初中、高中分层设计,覆盖数据思维启蒙、实践验证、算法逻辑与伦理议题。课程以故事化、情境化方式降低理解门槛,力求让技术原理与现实问题相互映照。受访教育工作者认为,面向青少年的通识教育若能持续把“可解释、可质疑、可改进”的理念讲透,将为未来社会更规范地应用算法、推动技术向善奠定公众认知基础,也为完善相关制度建设与行业自律培育土壤。
在智能化时代,掌握数据和算法的人拥有巨大权力,但权力必须受制约;通过向青少年讲授算法可解释性和知情权,我们不仅传授技术知识,更是培养具有伦理自觉的公民。这些学生将来可能成为技术开发者、决策制定者或被算法影响的个体,今天的课程将帮助他们在技术进步与个人权益间找到平衡。当越来越多年轻人具备了质疑黑箱、维护知情权的意识,整个社会对算法公平性和透明性的追求也会随之深化。这正是教育的深层价值所在。