新浪财经欧洲站站长 郝倩 发自上海
新浪财经日前对话了英国曼彻斯特大学动物学教授、神经科学家马修科布(Matthew Cobb),当代少数兼具科学洞察与哲学思考的神经科学家之一。他撰写的《大脑传》(The Idea of the Brain)是一部通俗脑科学全史,不仅是对神经科学史的回顾,更是一次关于人类如何理解“意识”与“自我”的思想实验。

在这场与新浪财经长达三十七分钟的独家对话访谈中,科布谈论了神经科学史中的隐喻、人工智能的幻象、创造力的意义,以及他对年轻一代的真诚忠告。
作为一个生物学家,他认为我们人类至今都不了解自己的大脑,大脑究竟是如何运作的。科学让我们看见世界的复杂,而哲学提醒我们保持谦卑。机器或许能模仿语言,但无法模仿人心。
——为什么要写《大脑传》
“人类一直用当代最先进的技术去理解大脑。”科布说。
回忆起写作《大脑传》的起点。十年前,出版社邀请科布撰写一本关于神经科学的历史。那时他已经写了一年半,却觉得“糟透了”——一堆枯燥的史实,没有灵魂。直到他忽然意识到,大脑的历史其实是一部“隐喻的演化史”。
“17 世纪,笛卡尔认为我们的神经像液压系统——他看到巴黎花园里会喷水的机械雕像,就以为人类身体也这样运作。后来电报发明,人们又把大脑比作通讯系统。再到计算机出现,我们又开始把大脑看作信息处理的机器。”
当然,这个想法是错误的,但人们试图用机械隐喻去理解复杂的大脑。
随后,随着电的发现以及电报系统的发展,人们开始把大脑和神经系统比作电报网络。再后来,计算机出现,人们又用计算机来比喻大脑的工作方式。
“当我意识到可以通过讲述人类如何随着科技的进步改变对大脑的理解,来构建这个故事时,我知道这会是一本有趣且有价值的书。”
“这种叙述方式改变了我的思路,也让这本书最终获得了热烈反响,尤其是神经科学家们对此非常感兴趣。”
“当你告诉他们,他们的思维方式其实是被当代科技所框定的,而这种框定是会随着技术与社会变迁而改变的,他们会非常兴奋——因为这意味着,他们的思维方式是可以因为技术而改变。”科布说。
——我们根本不了解大脑
“我们其实根本还不理解大脑是如何运作的。这正是我那本书的核心信息。”当马修科布说出这句话时,我有些吃惊,但他却是认真的。
正如刚写这本书时,编辑曾给科布发邮件问:“那么,大脑究竟是如何工作的?”
他的回复是:“我们不知道。”
编辑觉得这个回答很难接受,因为他不能在一本书里告诉读者我们不知道大脑怎么工作——因为几乎所有关于大脑的书都会给出某种解释——“它是量子的”、“它是网络的”、“它是计算出的的”。
“但事实就是:没有人真正知道。”科布坦言。
“我一生大部分时间都在研究昆虫,那些微小的生物——比如果蝇。一只果蝇幼虫(蛆虫)的脑子只有约一万个神经元,而人类大脑则有大约八百亿个神经元。”
“即使是这区区一万个神经元,我们都还无法理解它们是如何产生果蝇那种简单的行为的。更不用说我们人类的意识了——我们甚至不知道哪些神经元参与其中,也不知道它们为何能产生这种意识的感觉。”
“它们显然有某种特别之处,但我们不知道是什么,也不知道这些神经元运行的机制。”
——机器中无法产生意识版的系统
谈到人工智能,科布态度鲜明:“我属于’AI怀疑派’”,它是出色的工具,却不是生命的镜像
科布承认,如今的语言模型令人印象深刻,“这些系统的原理是寻找相似性,本质上就是非常强大的预测文本工具。就像你在手机上输入信息时,系统会预测你要输入的下一个字母或单词。AI所做的,基本上就是这种预测,只是规模更大。
“这些系统吞噬了——包括我的书,《大脑传》,都被它们‘偷走’了。”他提到,美国已有针对AI训练数据版权的诉讼,“它们从全人类那里学习知识,但并不理解世界。”
他认为AI确实能在特定领域发挥巨大作用——下棋、设计新抗生素、识别蛋白质结构——因为这些系统“被明确告知了规则”,告诉它这个封闭系统是如何运作的,所以它能表现得非常出色。
“但在西方,我们也看到另一种思潮:有人相信,只要让系统越来越庞大,就能创造出一种类似“上帝”的人工智能——我认为这是荒谬的。”
”像OpenAI这样的公司坚信,通过不断扩大模型规模,终将诞生出一种与人类思维方式相同的“智能”,它能像人一样思考。我认为这是错误的,并且事实也已经在证明这是错误的。“
“专用工具,可以实现的,然而意识般的系统,不可能出现。”科布解释说,“我并不认为“人类意识”会从计算机中自发出现。”
——人类不该盲信人工智能
如今在人工智能领域最被广为探讨的问题,是否会有一天人工智能可以自己做决定,从而进入“超级智能”时代。
对此,马修科布坦言,的确有很多人持这种非常恐怖的观点——即使今天的AI主要用于娱乐、科研辅助、文本编辑、音乐创作等领域。
“我认为AI是否会替人类作出决策,完全取决于我们如何使用它。对于那些有明确规则的’专用模型’,例如研究蛋白质结构的AI系统,它们能给出高度可靠的结果——因为我们给了它明确的训练方向与规则。”
但对于像ChatGPT这样的“通用模型”,情况就完全不同。你可以问它非常简单的问题,比如:“8的平方根是多少?”
它会给出一个答案;如果你说“不对”,它又会立刻回答“是的,你说得对”。
“它们非常’谦卑顺从’,更像是一个听话的仆人。”马修科布对我说。
然而,问题在于,当人们开始依赖这些机器时,麻烦就出现了。
“学生就是典型例子——有些学生作业没按时完成,就把题目交给电脑来写。AI会替他们写出一篇文章,甚至附上参考文献。”
“但问题是:这些参考文献往往根本不存在,是编造出来的。”
在英国和美国,都已经出现过律师在法庭上引用AI生成的’证据’的案例。结果法官指出:’这些证据根本不存在’——那位律师就因此被指责为’不称职’”。
“所以,这完全取决于我们是否选择相信这些机器。如果我们盲目信任AI所生成的内容,就会陷入非常危险的境地。”
“如果企业在没有人工复核的情况下,让AI直接决定雇佣、投资或任何重要事务的结果,那将是极其糟糕的。我们过去其实已经经历过类似情况——比如股市崩盘。
“在历史上,一些股市暴跌就是因为自动化交易系统在我们设定的规则下“失控”,这些系统并不聪明,但它们却引发了金融灾难。
结论就是:是否会允许机器自己做决定,是否允许超级智能出现,这取决于我们自己。关键是,我们绝不能让人类的判断被机器取代。
新浪声明:所有会议实录均为现场速记整理,未经演讲者审阅,新浪网登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。
评论