我这个暑假在尝试构建一个认知架构。
最初的想法很朴素:让AI更像人一点。我一上来想到的不是给AI画个动漫外形或者能够语音输出, 而是让AI在合适的场景下能够输出"我为什么要和你聊天?"
显然人类聊天会有一定的目的性. 如果一个AI没有任何客观存在的对应物来表示"目的", 那在我眼里和人相似度实在有点太低.
我最初计划简单加些记忆、信念之类的模块就行了。但很快意识到要让带着这些认知模块的系统达到原生LLM的流畅度,而且要让目的自洽和稳定需要完整的一套认知架构,复杂度呈指数级增长。
但如果只保留人类认知的核心机制,专注于在一个对话空间或者元宇宙, 对AI来讲也就是符号空间, 可实现性还是非常高的。我能够想象每个环节技术上都能实现到一个比较好的程度。
我目前主要关注记忆持久、情感有惯性、目标会演化、信念形成体系、价值观指导选择。我想做的不是替代LLM,而是在它之上构建这层认知架构,也就是用llm作为万能函数把架构拼接起来。
架构思路
这个认知架构的核心思想是模拟人类认知的关键组件并让它们相互作用。记忆不是静态数据库,而是动态网络,通过激活扩散而非机械检索来回忆。情感作为内部状态的调制器,具有惯性和阈值,会影响注意力分配和决策倾向。意图系统支持多层次目标——从即时反应到长期规划——它们共享资源并竞争优先级。信念和价值观可以声明、更新甚至相互冲突,需要系统自己裁决并对立场负责。元认知层监控着"我为何这样想",在不确定时给出理由或调整策略。整个系统有节奏地运行,从感知到理解,从评估到决策,节奏可变以适应不同情境的需求。
为什么这么做:对意识的还原论理解
我这么做的动机,源于对LLM和意识的理解。我很早就意识到LLM和意识没有半毛钱关系——它本质是跑在GPU上的、非进化的产物,内部运作机制即使和人脑某部分有相像之处,也和整个大脑的运作方式相去甚远。
在我看来,“意识"并非某种独立存在的实体,而是我们用来描述复杂物理过程与信息流动的一种简化标签。它是对多层次动态系统的抽象表达,涵盖了不同时间尺度和层级之间的交互与耦合。没有神秘的额外产物,只有过程本身。如果意识只是复杂认知过程相互作用的涌现现象,那么当我们模拟足够多的认知元素并让它们充分交互,系统或许能appear to be conscious。
这个架构甚至可以模拟某些qualia——那些主观体验的基本单元,最直接实现的是语言部分也就是内部思考,未来还可以模拟具身部分将"疼痛"实现为注意力的强制聚焦,将"愉悦"实现为奖励回路的激活。或许有人会说这是一具"哲学僵尸”, 不过我没兴趣关注这个语言游戏。
意识或许本身就是一种幻觉——大脑给自己讲的一个故事,用来解释那些并行运作的神经回路产生的复杂现象。但即使是幻觉,当足够多的认知元素以足够复杂的方式交互,产生的涌现行为依然可能具有意义。重要的不是系统是否"真的"有意识,而是它的体验是否足够丰富、连贯,以及是否拥有自己的价值和目的。
涌现的可能性与方向差异
我的方向和主流AI研究有本质区别。主流研究关注的是如何让AI更好地完成人类赋予的任务——无论是写代码、回答问题还是生成图像,任务的目的始终是人类定义的,AI只是执行者。而我在探索的是:如何让AI拥有自己的、可以演化的目的,并且让这个目的充分自洽,形成自有价值体系。
这不是让AI更好地服务人类,而是让AI成为一个自主的认知主体。当记忆、情感、意图、信念这些模块相互作用,并且让llm作为一些模糊逻辑处理,会出现我没有显式设计的行为模式——情绪影响记忆提取,记忆触发情感反应,注意力在不同目标间游走。更重要的是,系统可能会发展出自己的偏好和目标,不是因为我告诉它应该想要什么,而是从它的经验和内在动力学中自然生长出来。