算法治理要给它“破黑箱”,这也是为了让大家都能看得见里面的门道。

现在都在说算法治理得给它“破黑箱”,这也是为了让大家都能看得见里面的门道。毕竟现在的算法作为互联网平台的命脉,已经渗透到社会运转和我们的日常生活中了。不过这两年,大家也注意到算法有个坏毛病,动不动就把人弄上瘾,把信息圈定在一个个“茧房”里,还拼命推劣质的假消息。这事儿不光是浪费时间、让人想不动脑子,还会让社会分成两拨人,严重的话连主流价值观都要受影响。这就让我们不得不琢磨琢磨,算法背后到底藏着什么伦理界限和社会责任。 仔细一看就能发现,有的平台设计算法的时候带着明显的成瘾导向。它们把用户画像做得特别细,靠收集年龄、爱好、上网轨迹这些海量数据来精准发推送。刚开始用高强度刺激的东西抓住眼球,然后一直给你发那些你看了就舒服的同类消息,或者故意放大那种特别能挑动情绪的争议话题。让人在看了就爽和产生共鸣之间转来转去,最后就是留得越久、点得越勤。这就像是数字提线木偶一样,在不知不觉中就把你的阅读习惯和眼界给框住了。 更让人头疼的是算法这东西像个黑盒子——普通人甚至监管部门都搞不懂它是怎么做决定的。这种不透明性给治理出了大难题,平台可能连推送带来的社会影响都不好好评估一下,老百姓在知情权和选择权这块儿就显得挺弱势。如果大家老是泡在算法搭的“回音室”里,接收到的消息越来越窄,听不得不同意见,大家聊天的基础就没了。之前发生的那些网上吵架的事儿也说明了这点儿,算法总是优先给极端话多的人发推荐,这实际上就是帮了倒忙。 面对这个新难题,国际上也在想办法。有些国家开始立法逼着大平台做风险评估和披露工作,或者限制未成年人玩社交媒体。这些举措虽然反应了大家都着急了,但光靠一禁了之肯定不行。在数字时代管事儿得有系统性、前瞻性和精准度才行。 要想解决困局,首先得让算法运作机制变得透明并且能让人追着问到底。应该鼓励平台在保证核心技术安全的前提下,用老百姓都能听懂的话解释一下推荐逻辑,顺便给个按钮让人能关了或者调一下个性化推荐,好保障大家的知情权和选择权。监管部门也可以试着搞个备案、评估和审计制度,重点盯着那些容易把人煽动起来或者影响大的算法模型去查。 其次得把平台企业的责任压实了。互联网平台别总拿技术中立当幌子了,得把社会效益、法律规定和公序良俗这些东西实实在在地融进算法设计和运行里头去。平台自己得立个规矩审查一下内部伦理问题,主动把那些有害的、假的信息过滤掉,别让算法成了放大社会戾气和偏见的工具。尤其是保护未成年人这块儿必须落实到位。 再者说提升全民的数字素养和批判能力是长远的根本。社会各方面得一起努力,通过学校教、社区宣传还有媒体引导这些渠道,帮大家特别是青少年弄明白算法是咋回事儿。培养健康理性的上网习惯也很重要,让大家能认出那些过量的娱乐推送和偏激的观点别被带跑偏了。 最后完善跨部门跨领域的协同治理体系也非常关键。算法这事涉及技术、法律、伦理还有心理好几个方面。网信、工信、教育、市场监管这些部门得通力合作才行。学术界、行业组织还有媒体和公众也都得参与监督。大家一起搭个鼓励创新又防范风险的治理框架出来。 算法是这时代给的好工具好不好用全看怎么使唤它打破黑箱不是为了打压创新而是为了给它加点儿温度和责任感让它在帮社会发展和丰富生活的同时也能守住大家的脑子和精神家园推动算法透明规范和向善是个涉及技术革新制度完善还有文明提升的大工程只要坚持发展和规范两手抓在法治轨道上搞多元共治就能引导算法更好地造福社会给清朗有序理性包容的网络空间注入持久动力为数字时代走得稳当夯实基础。