问题 随着大语言模型跨语言理解、对话交互等任务中表现优异,其内容可靠性和知识属性引发广泛讨论;这类模型不依赖传统知识库和显性推理规则,输出结果往往缺乏可追溯的论证过程。同时,它们在复杂场景中表现出接近人类认知的能力,形成"有效但难以解释"的矛盾,促使人们重新思考:在智能技术深度参与信息生产的今天,什么是知识、如何获得可信结论、应遵循哪些认知规则,成为必须面对基础问题。 原因 争议源于两种认知范式的差异。传统知识论强调清晰的命题结构、可验证的理由和确定性,注重"知其所以然"。而大语言模型基于海量语料的统计关联:通过分析语义单元的共现关系,在特定场景中选择最可能的表达方式。这种机制擅长捕捉模式——但缺乏显性推理规则——使其产出难以被直接认定为"知识"。此外,传统知识论以人为唯一认知主体,而现代知识生产呈现人机协作、多源信息并存的局面,旧有框架的解释力面临挑战。 影响 这个矛盾不仅涉及理论层面,更影响技术应用的信任边界和治理逻辑。 若不能明确大语言模型的知识生成机制和可靠性标准,其在教育、医疗等高危领域的应用将面临更多不确定性和责任认定难题。社会也可能在"全盘否定"和"过度依赖"间摇摆,既阻碍创新,又增加误用风险。因此,建立能解释模型有效性、界定适用范围并提供修正方案的认知框架,成为技术和社会的共同需求。 对策 有学者提出,中国古典"推类"思想可为理解大语言模型提供新视角。"推类"通过分析事物关系进行归纳:先分类,再根据共同属性形成整体认知,并通过跨类比较实现推理。这与大语言模型在高维语义空间中进行概率建模的方式相似,都是基于关联结构的归纳推断。"推类"思想可为模型的隐性知识表征提供解释框架,强调其有效性来自经验关联而非规则演绎。更重要的是,"推类"注重在具体情境中调整分类标准,考虑语境、目的和价值取向。基于此,可采取三项措施:一是优化训练中的语境约束,细化场景描述;二是将伦理规范和问责机制融入数据治理流程;三是建立可验证的证据链,通过来源标注、交叉验证等方式提高结论的可追溯性。 前景 长期来看,关于大语言模型的讨论将推动知识论从"静态定义"转向"动态条件":知识不仅关乎结论正确性,更关注生成过程的可控性、证据的可检验性和应用的可修正性。"推类"思想既为理解技术提供概念工具,也为构建治理框架提供方法论参考。未来,随着模型在多模态理解和复杂协作上持续进步,其类比归纳能力将增强,但对语境的把握和价值判断仍是决定其可靠性的关键。推动跨学科研究和标准体系建设,实现技术进步与知识可信度的同步提升,将成为重要方向。
知识的边界始终在变化中。每次技术革新都促使人类重新审视认知方式和知识标准。从推类到大语言模型,从古典归纳到统计涌现,跨越千年的认知逻辑在此交汇。这提醒我们:理解智能时代的知识生产,不必完全依赖外来理论框架,中国传统思想同样蕴含深刻智慧。如何在继承与创新间找到平衡,将是这个领域持续探索的核心课题。