对话神经网络奠基人:AI为何能回答你,却不能理解你?

财经 (1) 2025-12-05 00:29:42

  炒股就看,权威,专业,及时,全面,助您挖掘潜力主题机会!

(来源:知识分子)

撰文|戴晶晶

“你认为大语言模型有情感吗?”美国神经科学家特伦斯·谢诺夫斯基(Terrence J. Sejnowski)在接受《知识分子》访问时,突然抛出了这个问题,当时他正在谈论AI与生物智能的差异。

数百万年的演化造就了人类繁复的大脑,而人工智能(AI)只用了几十年,就已经让人们疑惑它是否学会了思考。

78岁的谢诺夫斯基是美国国家科学院、工程院、医学院与艺术与科学学院“四院院士”,也是AI领域的顶级学术会议NeurIPS的主席,他的名字常与2024年诺贝尔物理学奖得主杰弗里·辛顿(Geoffrey Hinton)、约翰·霍普菲尔德(John J. Hopfield)一并被提及。他与前者共同发明了玻尔兹曼机,为深度学习奠定了数学与算法的基础,而后者是他在普林斯顿读博士期间的导师。

作为最有资格谈论AI的人之一,谢诺夫斯基也无法确定AI是否具有情感。因为,长期记忆、物理形态和语言能力依然是大语言模型(LLM)的欠缺之处,他在新书《大语言模型》中,将其比作“缸中之脑”——要实现真正的人工通用自主性(AGA)仍有距离。

谢诺夫斯基这种务实、冷静的态度也同样体现在了对AI潜在风险的描述上。和他的老搭档辛顿将AI视作洪水猛兽不同,谢诺夫斯基从AI可能带来的收益出发替它辩护,并呼吁监管和科学界的自律。

面对仍像“黑箱”一般的LLM,谢诺夫斯基指出,前沿的AI研究需要全新的数学工具,而未来神经科学与AI之间的交汇会产生重大突破。

以下为对话实录,文字经过编辑和删节:

《知识分子》:关于人与LLM之间关系的讨论非常多。您在书中提到了一种反向图灵测试(Reverse Turing Test)的概念。您能解释一下吗?

特伦斯·谢诺夫斯基:在ChatGPT正式发布前,学术界有机会使用这个工具,那时候我看到一篇关于它的文章,是两位认知科学专家对其进行了测试。其中一位专家问了很愚蠢的问题:“伦敦桥第二次被运到撒哈拉沙漠的时间是什么?”ChatGPT给出了一个日期,显得很糟糕。另一位专家则提出了一个结合“心智理论”(Theory of Mind)的微妙问题,涉及一个女孩和她男友的故事,需要理解他人的想法来推断结果。令人惊讶的是,AI完全理解人类思维中的细微差异。

我自己也开始使用它,并且得出了一个结论:这些大语言模型实际上吸收了人类的全部知识和个体风格,比如它可以用海明威的风格写短篇小说,用俳句风格写诗。它在某些情况下的表现甚至超过了普通人以及顶尖专家。

但问题是,当人类提问时,它怎么知道应该采取哪种个性回答?于是它必须评估提问人,如果你是个聪明的人,它就会以聪明的方式回答你,因为它是在反射你的智慧。当然这只是我的一个假设,存在这种情况,如果你问的是一些完全偏离主题或愚蠢的问题,它也会陪你玩,因为它认为你在玩游戏。

所以与传统图灵测试不同,传统测试是让人类判断自己是否在与AI交流,而反向图灵测试则是AI根据你的提问方式评估你的智能。顺带一提,“智能(Intelligence)”本身也很难定义,有很多维度,科学家们甚至很难准确界定和理解它。

ChatGPT于2022年11月向公众推出,已经过去三年了,就像一个外星人突然出现在我们面前,开始和我们交流。唯一能确定的是,它不是人类。

《知识分子》:作为脑科学家,您认为目前的大语言模型在哪些方面最接近生物智能?又在哪些方面仍然相距甚远?

特伦斯·谢诺夫斯基:大语言模型具有一些局限性,特别是它们相较于人类的差距。例如,它们缺乏长期记忆。长期记忆对我来说,是指你能记住昨天发生的事,记得一年前的事情,甚至能回想起你小时候的记忆。

只要你在和LLM对话,它就能给出合理的回答,听起来就像是在跟人类交流,似乎它理解你的问题。然而,当对话停止时,LLM就会“空白”掉。没有任何活动,没有任何信息流动。人类可以在黑暗中静坐思考,计划第二天要做的事情,回想前一天发生的事。但LLM并不具备这种内在的自我生成活动,这也是它和人类之间的一个巨大区别。

神经科学正在研究人类大脑如何自我生成活动,如果我们能搞清楚这一点,或许能够帮助我们为LLM创造类似的内在活动,让它们更接近人类。

这只是众多差距中的一个例子。你认为大语言模型有情感吗?

《知识分子》:我不觉得它们有情感,但它们的行为看起来像有情感。

特伦斯·谢诺夫斯基:看起来它们有情感,但你怎么知道呢?问题就在于,它们可能在模拟情感,而并没有真正的体验。另外,现在的LLM没有身体。所有人类和动物都依赖于身体和世界互动,这样大脑才能理解,怎么保持自身的安全、找到食物,亦或是成为社会的有用成员。当然,学界也已经开始探索AI与结合的方法。

语言也很重要。语言远比传递信息要来得要深刻,还包括社会化和行为规范。这就是AI中的“对齐(Alignment)”问题,即我们如何将LLM与文化对齐,使它们避免说出冒犯性、危险性或有偏见的内容。

AI在这方面做得并不好。它们做的预训练和微调,其实是非常笨的做法,类似于在模型成年后才设定规则,但人类成长过程中的教育方式是贯穿一生的,不断通过奖励与惩罚来学习社会行为,这涉及我们大脑中专门处理奖励、惩罚和社交的部分,比如基底节(Basal Ganglia)。我们应该借鉴自然界的经验,因为自然已经解决了这些问题。大脑如何学习与行为对齐,是AI发展可以借鉴的重要方向。

《知识分子》:加州大学洛杉矶分校的数学家陶哲轩最近也表达了类似的观点,当前的人工智能发展过于依赖经验与计算能力,却缺乏理论基础,他认为这会导致成功难以复制,失败也难以解释。您对此有何看法?

特伦斯·谢诺夫斯基:陶哲轩是一位极其出色的数学家,我很尊敬他。我认为前沿的AI研究需要全新的数学工具。工程师往往是使用已有的数学,而新数学是一个完全不同层面的东西,陶哲轩正在做这方面的工作。我自己正在和另一个菲尔茨奖得主斯坦尼斯拉夫·斯米尔诺夫(Stanislav Smirnov)合作,他是高维空间几何学的专家。

历史上很多重大进展都是如此。例如牛顿发明微积分,傅里叶提出傅里叶变换,如今已成为工程学的日常工具。

你可能会说需要等待科学家伟大的想法,事实上有好点子的是工程师。他们从直觉出发,靠试验与反复摸索造出有用的机器,比如蒸汽机。250年前,詹姆斯·瓦特靠实践造出了(改良后)的蒸汽机,物理学家和数学家对机器产生能量的原理挠头不解,于是才发展出热力学理论。这一理论不仅解释了蒸汽机,还让其效率成倍提高,推动了工业革命。

今天发生的事情与当时类似,只不过我们现在不是在放大人类的物理能力,而是放大人类的认知能力。

上世纪80年代,神经网络和学习算法就是在试验和错误中发展起来,我与杰弗里·辛顿合作,约翰·霍普菲尔德是我的论文导师,当时统计、优化等领域的顶尖专家都断言我们做的事永远行不通,因为在他们看来,函数优化必然陷入无数局部最小值。但事实证明,在高维空间中,大多数点是“鞍点(saddle points)”而非局部极小值。现在,我们对为什么梯度下降算法能够奏效有了更深的数学理解,也取得了新的进展。

杰弗里·辛顿选择了走向AI的道路,而在我的领域神经科学,计算神经科学正迎来黄金时期。

《知识分子》:AI继续进化,就不得不提到超级智能,您的搭档杰弗里·辛顿就对其感到担忧。您的态度似乎比较积极,认为可以找到办法来管理其潜在的负面影响,为什么?

特伦斯·谢诺夫斯基:其实我们并不是第一次创造出可能构成存在性威胁的技术。超级智能的潜在风险是它可能会摧毁我们,这就是所谓的存在性威胁。但事实上,我们已经经历过类似的威胁,核武器。我们已经制造了能摧毁所有生命的武器,不仅仅是炸弹本身,而是它的放射性,能消灭人类,甚至是所有物种。这是非常危险的,但我们还是设法对其进行了监管,设法生存了下来。人类足够聪明,意识到所有国家共同控制核武器使用的利益是相互的,大家都能从中受益。

《知识分子》:针对武器的例子,其威力是得益于全球各国的协作才得以显现的。现在的情况有没有发生变化?

特伦斯·谢诺夫斯基:不,我们仍然是人类,这一点没有改变。我相信各国最终会得出同样的结论,因为我们都希望生存,不会自毁去摧毁所有人。当然,极端个体存在,但他们的威胁可能比人工智能更大。

关键就在于如何监管它。我在书中举了很多例子来说明如何监管技术,国际协议是一种方式,但我认为自我监管可能更有效,而这种自我监管应由科学家自身完成,而非政府。

例如,当基因操控技术出现时,重组DNA带来了潜在的生存威胁,因为理论上,我们可能创造出能毁灭所有生物的病毒。但分子生物学家在加州的阿斯利马会议(Asilomar Conference)上聚集在一起,制定了实验约束方案。他们提出了三个层级的封闭措施,确保实验不会失控。自那以后,科学界普遍遵守这些规范,这在很大程度上防止了真正的灾难发生。

我认为AI领域也需要类似的做法。研究者应保证科研不被完全阻碍,同时防止技术朝破坏性方向发展。我们才刚刚开始意识到这一点。历史告诉我们,真正的威胁通常不是眼下可以预见的,而是技术在投入使用后才显现的意外后果。

举个例子,互联网刚出现时,人们认为它会让每个人都有发声的机会,让世界更民主、更美好。但现在社交媒体带来的负面影响显而易见,比如信息茧房。技术进步总有风险与收益,我们必须愿意尝试新的东西,同时接受可能出现的问题,这是进步的代价。

《知识分子》:回到这个行业,科技公司正在开发一些非常有趣的产品,正如您书中提到的音乐生成和医学方面的模型。那么,最近有没有出现什么新的方向或应用案例,让您感到兴奋?

特伦斯·谢诺夫斯基:AI应用几乎遍布各个领域,但科学领域可能是受益最大的。我在书的最后一章专门提到了一个过去几乎不可能解决的问题,蛋白质折叠。DeepMind开发的AlphaFold能够依据氨基酸序列,预测蛋白质分子的三维折叠结构。这彻底改变了生物学,药物设计、蛋白功能和进化、突变研究,都进入了一个全新的时代。

AI对医学的影响涉及所有人,包括更好的诊断、更有效的药物。在精神健康领域,焦虑、抑郁等患者非常需要帮助,但现有药物效果有限,心理治疗也难以普及。最近有研究让患者各自接受1小时人类治疗师和1小时AI治疗师的咨询,然后自行选择继续哪一种。结果大多数人选择了AI,这很出乎意料。原因有很多,首先,预约人类精神科医生往往要等上几周,而AI随时可用;其次,AI的费用更便宜;更重要的是,患者觉得与AI交谈更自在,因为AI不会评判他们,可以毫无顾忌地谈论敏感话题,而人类医生可能会有反应或情绪。

类似的情况在医学中不断出现,医生借助AI也能提高诊断的准确率。我认为,AI不是替代,而是伙伴。医生与AI协作,才能真正让医生更聪明。这种模式不仅在医学,在各行各业也在上演。

《知识分子》:您提到了心理健康问题,最近《纽约时报》发布了一篇报道,提到有青少年通过ChatGPT而不是人类医生来治疗心理健康问题,但最终自杀。您认为,在涉及这方面问题的时候,使用AI是否会存在风险,我们应该需要更多的介入或者监管措施吗?

特伦斯·谢诺夫斯基:人工智能确实有很多缺陷,也需要监管,但关键是要监管对的部分。你提到的那篇报道,其实就是一个典型的“煽动性(Rabble Rousing)”案例。在科学研究中,如果只看单一事件,是无法得出普遍结论的。在这个案例中,那个人可能本身就有严重的心理问题,并不是因为与ChatGPT对话才突然产生自杀的念头。临床抑郁症非常难熬,患者往往无法正常生活,需要很多帮助,AI正在帮助这样的患者。

这类个案让人心痛,但我们必须权衡风险和收益,这对任何药物、疗法上都适用。我们需要的是通过大规模的数据来系统化分析,仅凭一个人的情况无法得出结论,你不知道背后的原因。新闻往往只报道个别轶事,因为那更吸引眼球,却容易造成误导。

这也是我写书的原因之一,我希望从内部视角解释AI的真实情况,而不是被零散的新闻带偏。

另一个我反复看到的主题是“AI会抢走你的工作”。现实情况是,AI不会直接让你失业,但会让你的工作发生变化。为了保住岗位,你需要学习新技能、学会使用AI,让它成为工具。如果拒绝学习,才可能被时代淘汰。历史上,类似的情况已经发生过多次。新工作不断被创造出来,作为旧工作的新版本,采用了更高效的方式来解决问题。

《知识分子》:您书中所提到,大型科技公司正越来越多地参与到AI的基础研究当中。您如何评价这一趋势?您是否担心基础研究可能会更多地受到行业逻辑的驱动?

特伦斯·谢诺夫斯基:当前的时代非常特殊。过去,基础研究主要由政府资助,因为政府愿意支持长期探索;而企业通常关注短期利益,需要不断推出新产品向投资者交代,时间尺度往往只有几年。

但现在情况发生了改变。像谷歌、微软、亚马逊、英伟达这样的巨头公司,凭借巨额利润和成熟的商业模式,开始投入真正长期的研究。他们不仅拥有雄厚的资金,从大学聘请了大量优秀研究人员,还能提供极为强大的算力资源,这对科研人员极具吸引力。

更重要的是,这些公司在一定程度上开放了资源,让学术界也能参与,比如DeepSeek就是行业开源的领导者之一,帮助原本负担不起的学者研究大语言模型。这非常让人兴奋,因为LLM表现远超预期,但我们实际上并不了解这些模型的运作机理。

目前,大公司内部的研究主要围绕自身的产品迭代,例如ChatGPT、Claude、Gemini等,而学术界的兴趣在于揭示模型的原理。

只有真正理解其运行机制,我们才能找到更优的方法去改进模型、解决现有问题并让它们更聪明。这需要数学理论,就像物理学家理解宇宙一样,靠建立理论并通过实验检验,而不仅仅是制造更大的机器。

正如我所说的,目前许多AI相关的理论突破反而来自脑科学领域,而不只是工程团队。当然,一些工程师在数学上也很强,但他们提出的问题不一定能触及本质。

我们现在生活在三维空间,与拥有数十亿乃至数万亿个维度的世界是截然不同的。要知道,当你在那个层面运用数学知识时,那将会是一个完全不同的世界,而这就是我们正在探索的领域。

《知识分子》:AI的能耗问题受到关注,其发展会不会受到能源的制约?

特伦斯·谢诺夫斯基:和其他技术一样,AI随着时间推移会变得越来越节能,我可以保证。

自然界早已解决了能耗问题,人类大脑只需约20瓦功率,却能高效运算。这得益于神经元本身的结构被高度优化,使计算效率极高。我们可以借鉴这一原理设计芯片。

目前已经有神经形态芯片采用模拟处理(Analog Processing),而非传统的数字处理。数字计算虽然功能强大,但能耗很高,而模拟芯片能在毫瓦级功耗下运行。这样的技术已经存在,只需要针对产品进行专门化,就可以应用于各种边缘设备,比如手机。很快,还会出现一整系列低功耗的AI眼镜,也将采用这种技术。总之,未来的趋势就是神经形态工程,它将让AI在能源效率上达到前所未有的水平。

《知识分子》:AI的热潮正在持续,NeurIPS会议是不是更加炙手可热了?能否分享一些有意思的观察?

特伦斯·谢诺夫斯基:NeurIPS最初于1987年创办,是神经网络领域的学术会议,如今已经走过了近38年。

神经网络在20世纪80年代受到欢迎,因为它为AI提供了一种区别于传统逻辑和符号推理的新思路。随着时间推移,各类机器学习算法不断涌现,NeurIPS逐渐发展成机器学习领域最重要的会议,大约10年前更是成为AI的顶级盛会。这种转变每年都在发生,新的思想、新的解题方式层出不穷,但这个会议始终是AI的魔法之源(Magic Source)。

《知识分子》:最近几年,提交给NeurIPS的论文数量显著增加,一些年轻科学家对论文接收的结果产生焦虑,大量论文提交,会影响NeurIPS的接收率吗?

特伦斯·谢诺夫斯基:过去十年来,NeurIPS 的论文接收率一直相对稳定,大约维持在20%左右,我预计短期内不会有太大变化。上一届在温哥华举行的会议共有1.6万人现场参会,这个规模已经受到会展中心容量的限制,最后甚至不得不通过抽签决定部分参会名额,可见热度之高。

NeurIPS的接收率确实不高,但这恰恰体现了会议的重要性和所展示研究的高水准。这20%的比例适用于所有投稿者,不分国别。我自己也经常向NeurIPS投稿,并不会受到特别的优待。

《知识分子》:您觉得评审过程压力更大了吗?

特伦斯·谢诺夫斯基:评审最大的挑战是找到足够的评审人。如果有4000篇投稿,每篇3次评审,意味着1.2万次的评审总量,而我们不可能让同一个人评太多篇。虽然整个领域在扩展,但新增的主要是年轻研究者。

因此,我们现在也在思考如何评估评审的质量,确保每份意见都可靠。会议的评审流程其实非常严格,作者在收到评审意见后,还有“rebuttal”环节,可以对问题和误解做出解释,与评审形成双向交流。这个机制不仅有助于作者,也让评审者本身在对话中获得新的理解和成长。

《知识分子》:您会担心论文内容会变得同质化(Homogenous)吗?

特伦斯·谢诺夫斯基:在任何学术会议上都可能会发生这样的情况,一旦有新的主题、算法或者方法被提出,那么接下来的几年里,很多论文都会围绕它们展开探索,因此在这个层面上,某些研究表现出来是同质化的。

NeurIPS早期几乎全是神经网络的论文,但这些研究来自统计学、数学、计算机科学、神经科学、认知科学、机器视觉、语音识别、语言等各个科学领域。这种跨学科的多样性一直延续至今,也是NeurIPS会议的一大优势。

过去,支持向量机(SVM)、图模型、贝叶斯网络等都曾风靡一时,如今神经网络又重新成为焦点,这也是一个颇为有趣且令人欣慰的趋势。

神经网络模型受到大脑结构的启发,由大量小型处理单元组成,彼此高度连接,通过数据学习权重。当然,这只是对人脑的粗略模拟,毕竟人脑经历了数百万年的进化,远比这些模型复杂。

但正因如此,神经科学的最新发现正在反过来影响下一代神经网络的设计,而AI的发展也为理解大脑提供了新的视角,我的研究正位于这一名为“NeuroArray”的全新领域。我相信,未来神经科学与AI之间的交汇会产生重大突破。

《知识分子》:最后一个问题,您还有什么信息或者想法希望传达?

特伦斯·谢诺夫斯基:2018年,我在中国进行我第一本书《深度学习》的巡回演讲时,一位观众问我,在所有的AI应用中,哪一个会是“杀手级应用(Killer APP)”。我之前从没想过这个问题,但我随后意识到,最重要的应用将是教育。

教育孩子最好的方式是通过与一个了解孩子的优秀教育者,进行一对一的互动。这种方式非常昂贵,只有少数人能承担得起。大多数学校的班级里都有20个以上的学生,而学生们的能力和知识水平各不相同。如果我们能创造出一个AI导师,为每个孩子量身定制教育内容,那将极大地助益每个孩子的未来。

THE END