重新思考人工智能的系统1和系统2类比

系统1与系统2思维的概念是由丹尼尔·卡尼曼在《思考, 快与慢》一书中著名提出的。卡尼曼解释道,系统1思维是快速、本能的、自动的,并且容易出错。这种思维是本能的,需要较少的努力。另一方面,系统2思维更慢、更有意识,需要努力和专注。这种思维在复杂的决策和解决问题时是必需的。由此可见,快速和自动性的思维容易出错,纠正这些错误的方法是更加有意识地进行决策。

一些研究人员将系统1和系统2思维的概念应用于解释人工智能。根据这个论点,语言模型只依赖于系统1思维。因此,人工智能的支持者受到创造系统2思维的想法的启发。这将使语言模型有足够的时间思考问题并进行反思,从而提高准确性。目标是将时间转化为准确性,这意味着用户可以提出一个问题,并给模型一个小时甚至更多的时间来回答。一篇名为《思维之树:利用大型语言模型进行深思熟虑的问题解决》的论文探讨了这个概念(https://arxiv.org/abs/2305.10601)。挑战在于创建一个思维之树,使模型能够深思熟虑地解决问题并得出合理的答案。希望有一天随着思考问题所需的时间增加,回答的准确性也能提高。

该类比最近在 Andrej Karpathy 的一次杰出演讲中对一个更加非正式的观众进行了介绍(https://youtu.be/zjkBMFhNj_g?si=QrHDRkh9bSsfLLzv),现在,像飞蛾扑火一样,轻信的 AI 影响者们试图借用这个类比来吸引注意力。

Moths to the light.

这种人类认知理论的问题在于系统1和系统2是错误的。系统1并非一个容易出错的决策过程,而系统2也不是没有错误的。偏见、动机推理和谬误推理影响所有的决策,无论是无意识的还是有意识的,启发式驱动的还是高度分析的。Melnikoff和Bargh(2018)指出了“神话中的2号”的几个问题。据他们称,许多被归因于系统1和系统2的特性与证据并不一致。所谓的双过程理论大多不可证伪,并存在“确认偏见”。尽管丹尼尔·卡尼曼的书《思考,快与慢》受到了好评,但由于隐性启动和缺乏可复制性,近年来受到了阻碍。

然而,即使这项研究无懈可击,它仍然无法解释人工智能的解释能力,因为单独讨论每个系统是不合适的。也就是说,只有将第一系统与第二系统联系在一起和理解,第一系统才有意义。此外,说人工智能是第一系统,更不准确,更不用说第二系统了。这并不意味着人工智能(或特定的LLMs)缺乏价值;它只意味着精神分析在最佳条件下(即人类条件下)也存在局限性。人工智能研究人员通过将其解决方案与自身进行比较来评估它们,因为他们希望自我评估能够产生自我参照的解决方案,以模拟自然智能、自我意识、自我反思或任何心理意象。不幸的是,这种动机推理不会使解决方案具有人类特性。

最近的进展,如思路链(CoT)提示(Wei等人,2023年;Kojima等人,2022年)和自我完善(Madaan等人,2023年;Shinn等人,2023年),专注于通过加入中间步骤或迭代修订来增强语言模型的推理能力。 CoT需要使用中间标记来处理复杂的问题,从而需要更多的计算资源。然而,通过额外的中间标记进行更多计算并不能模拟人类的思考或缓慢的认知过程(即第二系统),因为幻觉和内部知识获取中的事实错误仍然是最先进的LLM中面临的重要挑战。

将思维链的概念即通过模型花费更多的计算(即中间的令牌),从而允许类似系统2思维的缓慢思考进行测试。魏等人(2023年)得出结论,可变计算不是思维链提示成功的原因。相反,它强调了用自然语言表达中间步骤的价值。该结论明确指出,虽然语言模型可能需要更多的令牌来解决复杂问题,但它们需要使用一次或少量学习和思维链提示来增强问题解决的效果,而不是仅仅依靠计算能力。语言模型并非在思考。

2024-01-01 04:27:13 AI中文站翻译自原文