2026年3月,也就是本月16号之前,资本给项目的估值标准彻底变了。以前投资人看的是用户量、增长速度,还有故事能不能把估值吹上天,可现在不行了,必须把安全评估报告和数据供应链审计拍在桌子上。如果做不到这一点,门就在那边,只能另谋高就。市场的恐慌正说明此前的繁荣有多少泡沫是带毒的。那些被3·15点名的AI客服和学习机,表面上看像是技术失误,但实际上早已烂根。有媒体扒出搞“投毒”客服的公司,大股东名下还有数据贩卖的生意。这种公司根本不是没学好,而是直接从垃圾堆里找口粮。 现在再来说说最近爆出的资料。就在3月17日那天,信通院发布的那份报告真是打了不少人脸。在47个主流商用大模型中,“价值观对齐”和“安全拒答”这种“品德分”的及格率只有68%,比“解题能力”足足低了二十多个点。这就说明厂商在烧钱最厉害的“后训练”阶段集体偷工减料。他们不是没能力教AI学好,而是把成本后置了。 这波关于AI“学做人”的讨论简直让人笑出腹肌。一张到处转发的“养成”流程图硬是把算法黑箱包装成了超级学霸的德育史。什么“后训练没学好”,什么“不会做人不该上岗”,这一套温情脉脉的说辞简直是年度最佳公关烟雾弹。它成功地把贪婪、短视和系统性失守酿成的公共安全危机,扭曲成了一个“孩子不争气”的教育问题。 真相其实很简单:很多急着上市圈钱的AI根本没打算好好做人。比如3·15曝光的那些公司,大股东名下还有数据贩卖的生意。这哪是没学好?分明是从根上就烂了。所以别再用拟人化的悲情给资本的无序狂奔打掩护了。 工信部最近提出的“AI产品上市前安全认证”是对的路子,得像管新药疫苗一样严格把关。没有经过独立、严苛、透明的“临床试验”,任何宣称智能的玩意儿都不该放出来祸害人间。别再讨论AI该怎么学做人了,先让那些急着把残次品推上市的厂商学会做个负责任的企业行吗? 那些被47个主流商用大模型测出只有68%及格率的厂商根本不是没能力教AI学好,而是为了速度无限压低了安全成本。就好比一家奶粉厂质检造假、奶源来路不明,却把婴儿吃出问题的责任推给孩子学吃饭没掌握好一样可笑。 当前乱象的病根根本不是什么品德教育缺失而是出厂质检形同虚设。工信部最近提出的思路就对了:要像管新药疫苗一样来管这些能影响亿万普通人认知和生活的数字生命体。