很多人在使用AI写作时,会出现一种熟悉的心理错觉:文章写完了,但我好像什么都没经历。文本完成得顺滑、逻辑清晰,但思考感却被稀释了。我们感到轻松的同时,也有些空虚。这种“AI知识焦虑”,不是因为我们不再掌握知识,而是因为我们不知道这份知识还能不能算作“自己的”。这种空虚感,很大程度来自于缺乏“经历”的成分:没有反复试错,没有反推逻辑,没有在表达中踱步犹豫。那些原本属于写作本身的挣扎过程,被效率替代了,也被剥夺了。
过去,知识是一种拥有:一个人知道一件事,意味着这件事存在于他的脑中、被他回忆出来或理解透彻。而今天,“我知道”往往不是“我会”,而是“我知道哪台机器能告诉我答案”。这是从“拥有”转向“导航”的变化。
在哲学上,“知道”可以分为层次。一级知道是直接掌握事实,比如“我知道水的沸点是100度”;二级知道是意识到自己知道,即“我知道我知道”;更复杂的是交互式的心智模型,比如“我知道你知道我知道”。而今天,我们越来越多地处于一种代理式知道:我知道ChatGPT知道答案,我知道Google能查到文献,我知道某个领域专家掌握某项知识。这种“知道”不再直接针对事实,而是关于路径和代理的判断。
这算知道吗?我认为算,但它属于一种后现代语境下的知道。它不依赖主体掌握全部内容,而是依赖是否能正确指向相关载体,是一种基于可调度性的认知行为。
后现代性在这里的体现,不是表面的解构感,而是人和知识之间的关系悄然发生了变化。我们不再必须靠内化记忆来证明知道,而是靠是否能指向正确路径、调用合适资源来判断是否“知道”。知道变成了一种导航方式,是一种在复杂信息中做出选择与确认的能力。
AI的加入模糊了知道与不知道的界限。ChatGPT并不真的知道任何事,但它可以表现出“像是知道”。我们依赖它、引用它,甚至用“我知道它知道”来建立自己的判断,但这背后并没有传统意义上可确证的知识状态。我们正在经历一种过渡:从确证走向调用,从事实把握走向行为判断。这种“工具式知道”并不能替代理解,但它确实成为我们认知系统的一部分。
这让我重新思考“理解”的角色。在“我知道AI知道”成为一种常态的环境下,我们可能逐渐将“理解”简化为“能生成答案”,但理解不只是回答问题的能力。它还包含一种解释路径的能力、一种将知识内嵌进自身判断系统的过程。如果说“知道”是判断结果,理解则是判断过程本身。当我们把问题交给AI来解,我们很容易遗忘那种在解题过程中摸索、卡顿、恍然的经验,而那恰恰是理解的发生地。
我个人倾向于承认“我知道AI知道”是一种新的、现实存在的认知方式。它并不是简单的错觉,也不是懒惰,而是技术时代自然演化出的知识使用方式。但我也保持警惕,因为这种方式一旦成为默认路径,会让我们失去对因果链条的追问,变得依赖调用而忽略构建。这种“忽略构建”的后果不仅仅是知识体系的不牢靠,更可能带来更长期的副作用:创新能力下降、批判性思维被弱化、自主表达逐步稀薄。我们从调度器变成了复读机,从判断者变成了调用器。
如果把“知道”看作是对一个命题的置信度分布,那么AI的回答只是我在更新判断时的一个输入权重。“我知道AI知道”其实意味着:我承认这个输出足以影响我的判断,但它不是终点。这是一种信念上的调节动作,而非事实本身。
这种状态让我感觉到,我们与AI之间的知识关系,已经不再是“信”或“不信”的问题,而是一个实时调整判断、处理模糊、调配信源的过程。我开始不再关心某条知识“是不是我自己的”,而是它能不能帮助我作出判断,能不能接入我已有的知识框架,是否能让我顺利转换成属于自己的表达与判断力。
所以我使用AI时并不追求从它那里获得一个确定答案,而是把它当作一个有用的生成节点。我会判断它的可信度,尝试与其他来源交叉验证,把它输出的内容重新解释、重写,再看是否真能嵌入我已有的认知通道中。这是一种实践性的“信念管理”行为——它并不是被动接受,而是需要我们主动参与的判断训练。
也许我们最终要接受:所谓“后现代的知道”,已经不是一种固定的状态,而是一种持续流动的判断行为。它发生在我们与各种信息代理之间,在我们不断分配注意力、权衡来源、尝试表达的过程中。它更像一股随时可引导的水流,方向可变、强度可调,却难以固定为某种终极形态。