更新时间:2025-12-20
点击次数:
由北京市通州区人民政府指导,《财经》杂志、财经网、《财经智库》主办的“《财经》年会2026:预测与战略 · 年度对话暨2025全球财富管理论坛”于12月18日至20日在北京举行,主题为“变局中的中国定力”。
12月19日,在《财经》年会2026“人工智能浪潮”对话环节上,清华大学苏世民书院院长薛澜与美国四大国家学院院士Terrence Sejnowski(特伦斯·谢诺夫斯基)展开了一场深度对谈。双方围绕人工智能的智能本质、风险治理与未来发展方向进行了深入探讨,并指出尽管AI技术发展迅猛,但其智能本质如何界定、潜在风险怎样防控、治理框架如何构建,仍需各界深入思考与审慎应对。
清华大学苏世民书院院长薛澜对话美国四大国家学院院士Terrence Sejnowski(特伦斯·谢诺夫斯基)
薛澜首先从智能本质切入,指出当前AI模型能模仿对话却缺乏具有自主意识的 “内在世界”。特伦斯·谢诺夫斯基认为,智能含义丰富,当前大语言模型与人类的关键区别在于,前者缺乏自我生成的活动与规划记忆能力,其知识量虽大,但意识与自我意识的出现仍难预测。
针对AI风险治理,薛澜提及恶用、技术失控、系统风险等三类风险,并探讨“画出技术红线”方式是否适用于AI。特伦斯·谢诺夫斯基表示,任何技术皆需平衡风险与收益,监管应以防止损害为目标,最佳方式是业界自我监管辅以国际合作。他以核能类比,强调全球协作防止生存性风险的必要性。对于治理路径,他认同薛澜提出的建立国际联合实验室等合作机制是值得探索的方向。
关于AI对就业的影响,薛澜谈到,斯坦福报告显示年轻人受AI就业冲击很大,该如何应对?特伦斯·谢诺夫斯基建议年轻人要拥抱变化、学习新技能,并指出AI领域已涌现超10万家初创公司,带来大量新机遇。
最后,薛澜谈及神经科学对AI的启发,特伦斯·谢诺夫斯基认为,未来AI发展可借鉴大脑三维结构与高效学习方式,但在散热、能耗等方面仍面临挑战,距离真正类脑智能尚有长路。
以下为部分发言实录:
张燕冬:女士们、先生们,各位嘉宾,各位朋友,媒体同仁们,大家上午好!欢迎来到《财经》年会2026:预测与战略暨2025全球财富管理论坛的第二天。昨天(18日)一天的会议,我们从全球经济、国内经济、宏观政策、科技创新到产业变革,勾勒了当前经济与发展的整体图景。今天我们将沿着这一框架,进一步探讨前沿问题与现实实践。
近年来,人工智能的进展速度远远超出了大多数人的预期,从技术突破到产业应用,从效率提升到社会影响,AI正在深刻改变我们理解世界和组织社会的方式。但与此同时,许多更本质的问题也随之出现:AI的未来是什么?技术能力的边界在哪里?制度和治理是否已经做好准备?人将扮演怎样的角色?带着这些问题,我们特别邀请了两位长期站在学术前沿,同时深度参与公共讨论的重要学者,共同展开今天的对话。
我们非常荣幸地请到了美国四大国家学院(国家科学院、国家医学院、国家工程院、国家艺术与科学学院)院士特伦斯·谢诺夫斯基教授。作为神经科学和人工智能领域的奠基者之一,他横跨大脑科学、认知机制和机器智能研究,在多个关键阶段推动了这一领域的发展,也始终从基础科学的角度反思人类智能的方向。
另外一位是国家新一代人工智能治理专业委员会主任,清华大学苏世民书院院长、人工智能国际治理研究院院长薛澜教授。薛澜老师长期从事公共政策、科技治理与创新体系的研究,对人工智能带来的制度挑战、治理框架和社会影响有着系统而深入的思考。接下来的这场对话将是一场面向未来的交流。现在,我们将现场交给薛澜老师,以及线上的特伦斯·谢诺夫斯基教授。
薛澜:特伦斯·谢诺夫斯基教授,晚上好。我手上有一本您的新书,已经翻译成中文,在座的各位手上也都有。这本书非常好。我们有一个小时的对话时间,可以探讨许多大家关心的话题。
特伦斯·谢诺夫斯基:好的。
薛澜:首先,考虑到您的研究背景,很多人都会想问这样一个问题:您对于智能的本质是如何理解的?在您的书中有这样一条评论提到,我们构建的模型能够完美模仿人类交谈时的样子,但一旦它沉默下来,它的“内心世界”就会变得空无一物。这让我们回到一个根本性问题:如果我们无法让AI拥有内在的、自我生成的生命感知,这项技术的发展又将面临怎样的方向?类似于我们大脑活动中的默认模式网络,处于这种“沉默”状态时,您认为这种智能是否也会产生非常复杂的“幻觉”?
特伦斯·谢诺夫斯基:智能本身是一个词汇,我们需要通过其定义来理解它,其含义非常丰富。如果你查一下字典,它包括人类智能、人工智能、军事智能等。我觉得它们并非完全一回事,有类似之处,但也存在巨大差异。刚才您指出的是大语言模型与人类之间一个非常重要的区别,即自我形成、自我生成的活动。我们的大脑一直在不停运转,因此有非常多的输出。我认为目前的大语言模型并没有这种能力来进行规划或记忆,它们只能在当下的对话中推动对话进行。
关于智能,还有许多不同的方面。比如知识的智能,你拥有经验和知识。大语言模型看上去似乎拥有更多智能或知识,但没有一个人拥有与大型语言模型相当的知识量。它们非常重视这个维度。当然,智能还有更多先进的方面。因此很难简单地界定它到底处于哪个阶段,情况变化太快,我们只能拭目以待。
薛澜:在您的模型中提到,有一天可能会出现具有自我意识的智能?您觉得这会成为现实吗?
特伦斯·谢诺夫斯基:我觉得这很难预测。但我们要感谢这个世界存在不同的物种,它们拥有自己的意识。比如大脑与人类相似的物种,如黑猩猩或其他一些物种,它们也有自我认知、自我意识,虽然不能像人类一样拥有语言能力,但与人类的自我意识可能有相似之处。所以,没有语言能力的物种也具有一定程度的自我意识。
薛澜:还有一个我很好奇的事情。生物科学和人工智能领域都取得了许多进展,我们已经看到了脑机结合技术把人工智能系统与大脑的生物系统连接在一起。您认为这两者是否能够携手并进?有没有可能生物科学能够增强人工智能的能力,反之,人工智能也能拓展生物科学的边界?
特伦斯·谢诺夫斯基:我觉得这是一个刚刚开启的新领域。过去十年兴起的神经网络人工智能,是基于规则、逻辑进行编程的。但现在基于神经网络的人工智能,其架构更接近于人类大脑,涉及大量概率计算。但真正的秘密在于从经验中学习思维。大自然已经赋予人类这种能力,使我们能更快适应世界。而我们创造的人工智能是基于相同原则的,但它是基于规则的行为。尽管如此,我们才刚刚起步,距离目标还有很长的路要走。人类已经存在了数百万年,但我们很难预测人工智能未来的发展方向。
薛澜:接下来我们看一下人工智能未来发展的路径。现在人工智能等许多技术的发展非常迅速。历史上,蒸汽机的发明早在热力学理论出现之前。在航空、工业领域也出现过类似情况。如今,我们的工程师在人工智能系统方面有了巨大的推进。我们是否可以把这种认知方式的进步当作“认知蒸汽机”的进步?我们是否已进入类似“热力学”理论出台之前的时代?我们需要新的数学或其他方式来描述和解释高维空间中的发展方向吗?
特伦斯·谢诺夫斯基:我们生活在三维空间的世界中。这些语言模型,实际上我们的大脑,其神经元的数量在这个维度上已达数百亿级别。同时还有神经元之间突触的强度,对应着参数的数量,这可以用数学进行量化。我们还要去探索更深入的领域,比如三维空间中的矩阵,这需要我们的想象力。我的意思是,我们的思维方式基于在低维空间中的体验,但我们可以通过数学方式,而且数学家们已经开始研究。非常值得期待的是,信息是如何体现的,以及如何在高维空间中分布。以汽车为例,它是一个代表规模的领域。当我说到普及领域,它涵盖了大量数量。人类也是如此。数学家也在不断拓展这方面。我猜测在未来一段时间,我们会建立关于大语言模型所掌握水平的理论,也会拥有像热力学一样完善的大语言模型理论,就像您所说的“认知蒸汽机”。
薛澜:没错,我也希望如此。在这方面,很多人都在思考出现的新情况。许多人研究人工智能相关的风险与责任问题。我想了解,目前在业界首次使用这些技术时,以及在生物技术领域,对于未来人工智能存在的风险,我们是否真的存在一些共识?正如我们之前会议所讨论的,能否避免灾难,而不是在灾难发生后才出台技术监管措施?您怎么理解?
特伦斯·谢诺夫斯基:首先,任何技术都有风险和好处。比如汽车是非常重要的交通方式,但我们知道汽车也会导致车祸。在美国,每年约有4万人在高速公路上丧生,我们不得不承担这种风险。同时要平衡风险与收益之间的关系,医药领域也是如此。技术也是这样,当它真正出现时,潜在地会带来深刻的变革。比如一百多年前,人们大多住在农场务农,现在是城市生活,技术改变了我们的生活方式。人工智能对社会带来的变革,比如生产力提升,新技术也可能带来无法预判的结果。
但讲到监管,最好的结果是我们能进行自我监管。随着技术演变,其不足之处显现,我们应该自我监管以防止损害。如果不进行自我监管,政府会介入。如果政府不了解细节,可能会阻碍进展,因此我们必须特别小心。不同国家采取了不同方法。在欧洲,欧盟出台了人工智能法案,基于各种应用场景进行规范,比如禁止用AI筛选求职者。这实际上是一种微观管理,并非真正适合AI的监管方式。
另一方面,AI也存在一些严肃问题,比如偏见或产生幻觉等,这些都是技术问题,能够解决。但我们必须意识到这些问题的存在,并区别对待。有一个概念叫“对齐”或“一致”,即使AI与我们的文化保持一致。但这种“对齐”并非对所有文化都一样。不同的AI可能与不同的文化对齐,甚至在文化内部还有亚文化。不存在一个适合所有文化的AI。我们会有不同类型的人工智能,在不同文化中有不同应用。我们必须拭目以待,看看接下来会发生什么。
未来我们必须谨慎行事,尤其在应用人工智能方面。现在AI发展势头特别好,竞争性很强,所有国家、公司都在相互竞争,推动AI发展。我们现在只是漫长征程的开始,也不知道将来AI发展究竟会如何,是否安全。
薛澜:特别是您谈到的最后一点。今年年初,由前图灵奖获得者本吉奥牵头的团队出台了一份人工智能国际安全报告,提到了三种类型的风险。在第二种风险中涉及技术体系自身的风险,最危险的情况就是AI系统失控,拥有自主意识,进而发展到人类无法控制的地步。这种风险在多大程度上可能出现?对这种风险的看法有多大程度的共识?如果失控会怎样?
特伦斯·谢诺夫斯基:我无法代表所有人回应这个问题。有些担忧可能时间跨度很宽泛,比如10年或100年后,没有人能预测风险何时出现。有些风险可能看似杞人忧天,但我们必须保持关切,提前预警。开发AI技术的工程师和数学家可以帮助我们理解AI的行为。
我想目前的形势还不错,我们可以解决那些特别严重的危险,尤其是威胁人类生存的风险,有些人称之为生存性风险。世界上有一些“超级预测者”,过去他们能比专家更精准地预测某些大灾难或其他技术带来的生存挑战。在AI领域也有相关预测,确实很多人担心各种风险,但我会更信任那些超级预测者的判断。
薛澜:在您看来,对社会而言,解决这些社会问题的最佳方式是什么?在一个会议上,有人谈到我们可以形成一个社区进行讨论,达成共识,找到解决危险的方法。但与此同时,在人工智能领域,正如您所描述的,这似乎很有挑战性。不仅仅科学家和学术界关心,还有许多受到商业利益驱动的公司,他们感受到巨大的竞争压力的驱动。考虑到这种情况,对于像我们这样非常担忧但并非业内专家的社会人士,可以采取什么样的方法来推进这些问题的解决?
特伦斯·谢诺夫斯基:我完全认同您所说的,首先我们必须解决这些问题,然后再寻找最佳方式。在12月第一周有一个神经信息处理系统大会(NeurIPS),这是年度会议,已举办39年,可追溯到80年代。今年我们有超过26000名与会者,其中很多来自中国,占比约20%到25%。中国对机器学习和AI的贡献巨大,令人印象深刻。这是一个国际性会议,明年将在悉尼举行。
会议上不仅有工程师,还有许多才华横溢的研究人员,他们同样关心并担忧超级人工智能。还有来自伦理、人文领域的专家,他们关注人类与ChatGPT的区别,不仅做实验,也研究人类的“幻觉”。大家的想法有共同点,也有差异。随着进展,会议上我们真正需要制定一个计划,思考如何控制和监管AI发展,确保当前所有AI进展一方面是安全的,另一方面是有益的,防止灾难发生。核能是另一个例子,它能威胁人类生存。可以想象,如果发生大规模核战争,整个世界都会被摧毁。我们当然不希望这种情况发生,也不希望AI领域出现类似情况。如何防止?所有国家必须团结起来,为了人类福祉提升而合作,就像控制核武器一样。
我记得20世纪50年代有空袭警报,如果警报响起,躲在桌子底下毫无帮助。因此我们必须采取措施,防止灾难发生。
薛澜:这里我想提到我参加的一个关于人工智能安全的国际对话,是由姚期智教授和本吉奥教授等人发起的。这个对话2024年在北京的一次会议上提出了一个“红线”提案,即识别出一些不能跨越的红线。通过这种方式,在研究时我们就知道界限在哪里。您觉得这种“画红线”的方法有用吗?或者,另一种方法是探讨是否可以建立国际机制来监管AI发展?您对此有何看法?“红线”监管方法是一种防止风险爆发的有效方式吗?
特伦斯·谢诺夫斯基:您描述的方法确实可行,但我们不知道红线究竟该划在哪里。当然,可以认真思考红线划在何处。上世纪60年代,生物学家们聚集起来,限制生物技术可能带来的危害,比如基因编辑可能给人类造成伤害。我们可以这样做,也有力量这样做。我们也要控制生物技术的发展,实验可以在不会扩散的密闭环境中进行。您谈到的红线,就像生物学家认识到必须防止实验泄漏造成伤害。
关于AI发展,比如AI反抗人类、与人类作对,可能会带来很多麻烦,但这与病毒带来的伤害不同。我们必须思考在哪里划这条红线。当然,建立报告机制是一个非常重要的方法。如果我们都报告所做的实验,至少可以了解技术将走向何方,这能帮助我们划定红线。
薛澜:既然谈到这一点,这涉及到研究生态系统。技术公司为学术界提供了前所未有的算力,这也提出了深刻的问题。现在创新研究依赖于这些公司控制的基础设施和数据库。我们如何确保人工智能科学的基石是开放的,而不是被破坏?当然,现在出现了一些全新的私人资助科学范式。将近一个世纪前,基础科学开始得到政府资金支持,成果公开提供给社会,这是一种开放科学范式,推动了科技事业的空前发展,私营企业的创新活动也收益极大。但现在这种范式发生了变化,出现了私人资助的科学范式。这是否会带来问题?我们有哪些方法可以解决新范式体系中的问题?
特伦斯·谢诺夫斯基:实际上这些并非没有先例。我可以举一些美国的例子。像谷歌这样的公司,或者以前的AT&T。政府赋予AT&T一定垄断权,它创建了贝尔实验室,聚集了物理学、化学、工程学、计算机科学领域的顶级专家,开发了现代技术,如晶体管和操作系统等。他们所做的工作并未造成损害。换句话说,这样一个群体特别清楚自己在创造什么,尤其在计算机方面。总体而言,许多公司清楚地认识到,在某种意义上,它们已获得开展这类大型项目的许可。例如数据中心,它们应被视为国家资产,甚至全球资产。学术界可能没有那么多计算资源,但我们能做的,也是正在做的,就是分析这些模型。比如研究高维空间的数学问题,用严谨的数学细节解释现象背后的原理。是什么原则让大语言模型进行内部语义表示?为了回答您的问题,它们必须在某种程度上理解含义,否则会引起歧义。有很多同义词,所以必须理解语句背后的所指。
这一切不知如何融入了内部表征中,我们已经开始理解,也可以对其进行分析。我见过类似事情发生。我的一位加州理工学院的同事,他是数学家、物理学家,提出了所谓的“超参数化物理原理”,即控制大语言模型内部信息流动的数字。参数可能有数百万,甚至数百万亿。当你实际增加参数时,会发生意想不到的事情:在预留测试集上的表现,以及训练数据会告诉你训练效果,是否需要更多训练。这个过程可能持续数月。之后,随着参数增加,其表现开始变化:通过某种“弥合”过程,它不再是记忆而是泛化。现在的情况是,表现似乎无限上升,我们称之为“双曲线下降”现象,即使回升后也会持续下降。训练集的误差已趋于零,这意味着我们不完全理解的大语言模型内部正在进行某种重组。在物理学中,这称为“相变”。因此,我们已经开始构建关于大语言模型的大致理论框架,这也源于物理学。而物理学已发展得非常完善,能够描述物质及其粒子间复杂的相变过程。
薛澜:我想问您的是,我们未来也许还会遇到更复杂的大模型,您是否看到了一种另外一种可能性?在这些基础性的领域中,许多公司彼此竞争是一种无谓的巨大消耗,成本非常高,能源消耗也很大。是否有可能建立一个像“AI-CERN”(欧洲核子研究中心)的机构?CERN作为一个在日内瓦设立的高能物理加速器实验室,建构了昂贵的实验设施,聚集了来自不同国家的科学家共同合作开展研究。在AI领域的前沿大模型方面是否可以构建一个AI-CERN?您觉得这可能吗?
特伦斯·谢诺夫斯基:我觉得这个想法不错,但到底如何实现呢?这个机构设在哪里呢?
薛澜:我觉得也许设在中国或美国都有困难,放在第三国是否有可能?作为加速器需要很大空间,但AI实验室可能就不需要那么大的空间了。
特伦斯·谢诺夫斯基:我觉得这是个很棒的主意,我真的很认同。这需要组建一个由研究人员和政府政策制定者组成的团体,逐步制定监管原则以推动相关事项。最重要的是让研究人员和政策制定者坐到一起。如果我们不能面对面交流,这件事就无法真正实现。
薛澜:在讨论其他问题之前,我还想替这里的很多年轻人问一个问题。最近我们看到一份斯坦福大学发布的报告,讲到人工智能对就业的影响,细分来看,年轻人受到的负面影响程度非常高。如果有年轻人想请您提供人生建议,他们应该学习什么,如何为下一代人工智能的应用、下一波人工智能浪潮做好准备?未来可能是具身智能或更具深远影响的技术。您会有什么建议?
特伦斯·谢诺夫斯基:这份关于年轻人的报告提到,特别是计算科学、计算机编程等领域会受到影响。但要知道,人工智能助手可以帮助你更好地理解产品,提高效率,特别是在编码中提高效率,能对代码进行注释以便理解。所以我觉得目前看到的就业影响可能是一个暂时性问题。我们知道很多公司从大学挖走了大量师资,导致资深员工离职。未来大学会有更多岗位。你必须首先攻读本科、硕士等项目,这是一个漫长的道路,而且这仅仅是开始。我觉得机会非常多,无论是在圣地亚哥、斯坦福还是卡内基梅隆等地,都有高调招聘。
我举个例子。五年前我们成立了数据科学研究院,它不隶属于任何学院。五年间我们聘用了50位新教职员工,每年10位。我们不是唯一这么做的研究院。很多人正在攻读博士学位,这很重要。早期人们就知道数据科学会影响每个学院,每个学院都有自己的大数据,每个人都需要分析数据。数据科学研究院已发展成一个跨学科学堂,涉及计算机科学、工程、医学院、生物学等,数据在背后都发挥了关键作用。我知道大学能为年轻人带来许多机遇,但你一定要非常投入并坚持到底。这都是重要的人生原则。不要受周期波动影响。我们看到社会上、学术圈有各种令人糟心的事情,新工作会出现,岗位会增减。我也曾担心自己会丢掉工作,不是指失业,而是转岗。你需要转换思维,学习新技能,掌握新技术。新的工作岗位要求你会使用人工智能,通过AI提高工作效率。年轻人学习新技术没有障碍,他们学习能力非常强,速度非常快。我觉得这应该是未来的趋势。
薛澜:没错。我觉得技术领域的人,就像刚才讲到的,需要学习新技能并适应新情况。那些从事人文和社会科学领域的人呢?他们是否会失业?如何能更好地学习一些新技术,特别是在技术领域?这种转变对他们来说可能困难得多。应该怎么办?您的建议是什么?
特伦斯·谢诺夫斯基:在我的书里写到一个案例。一个美国英语文学专业的学生,他们阅读大量小说、诗歌。这个学生是诗人,发表了很多诗作,英语水平很好。他的一位朋友创办了一家初创公司,遇到产品相关问题,找他帮忙。他开始与AI沟通,觉得非常有意思,这种对话方式不同。他擅长设计新的提问技巧和回答方式。这个英语专业出身的诗人,拿到了很高的薪水。如果他只做田园诗人,可能收入不高,但作为“提示词工程师”,就能获得很好的报酬。他对语言充满热情,这是实实在在的才华,能与人工智能完美契合。想想世界上有多少与AI相关的创新公司?
薛澜:我完全不知道。
特伦斯·谢诺夫斯基:猜猜看?我不知道在座听众有没有答案。随便说个数字吧,全球有多少基于AI的创新公司?超过1000家?如果觉得超过1000家,请举手。我看到几个人举手。有多少人觉得超过1万家?有两个人举手。答案是超过10万家。要知道,这些都是年轻人创立的初创企业,他们付出了巨大精力,也获得了大量风投资金支持。这就是未来,许多新点子和创意来自这些小公司,而非大型企业。
薛澜:我们时间快到了。我要问最后一个问题,关于神经科学带来的经验以及未来。您的职业生涯横跨神经科学和AI,见证了AI的发展和进步。接下来AI与神经科学将如何交叉发展?人们常说AI要向大脑学习,效仿脑科学,将二者结合,让AI能像人脑一样学习。您认为这种新的、让AI学习方式类人脑的革命,其可能性有多大?
特伦斯·谢诺夫斯基:确实有巨大的进步空间。当前的数据中心不像人类大脑那样高效。现有技术是奇迹般的,我们取得了长足进展。未来十年将会出现专用处理器和针对性设计。大脑是三维结构,芯片是二维或2.5维。接下来AI的发展会借鉴大脑的组织方式,但我们必须注意,算力会产生大量热量,需要思考如何散热,就像贯穿大脑的血管一样。我们需要散热器,需要创造更有效的冷却技术来冷却芯片。这可能是未来十到三十年的事情。
我们应该思考的,不是人类能为AI做什么,而是AI如何能像我们的大脑那样理解事物。大语言模型揭示了一些新原则,我们可以利用这些原则来设计体系,使其更接近人脑的运作方式。我经营一个关于大脑与AI的博客。随着AI不断进展,我们会产生非常多的直觉、想法和创意。许多研究大脑的理论学家和实践者正致力于理解这些原则。未来还会取得很多进展,甚至在某个时刻,我们或许能理解人类意识。您之前也提到了这点。我们目前还不了解意识背后的神经科学原理,但也许不久的将来就能解决这个问题。
薛澜:好的,非常感谢您。希望您的想法能给在座的年轻人一些启发,使他们能沿着您的脚步在这一领域进行更多研究。我们今天的对话非常精彩。希望有一天能邀请您来中国、来北京,这样我们可以进行面对面交流。非常感谢您。
特伦斯·谢诺夫斯基:好的,太棒了。如果能去的话,谢谢您。
薛澜:我们鼓掌感谢谢教授诺夫斯基!
特伦斯·谢诺夫斯基:我就跟大家再见了,希望会议取得圆满成功。
薛澜:我们讨论了几个问题。首先是关于智能的本质——什么是智能?他在这方面确实有很多见解。想想我们与ChatGPT、DeepSeek讨论时,背后根本的问题是智能的本质是什么?这是他书中探讨很多的。
第二个重要问题是关于人工智能的潜在风险。大家知道,人工智能风险大致分为三类:恶意使用风险、技术故障风险以及系统性风险。这些风险如何治理?在其他领域,风险治理也有不同模式。例如,当基因编辑技术刚出现时,许多生物学家非常担心这项技术是否会带来危险,如果人类基因可以被编辑,那未来的人将难以区分是自然人还是被编辑过的人,甚至人类完全可以通过技术手段创造人。这种情况令许多生命科学家非常担忧,于是学者们50年前在美国加州的阿西洛马海滨小城召开会议,提出了《阿西洛马原则》,对生命科学研究进行规制。目前这套办法相对有效,生物技术在推进的同时,尚未产生特别重大的风险。我们讨论到这种方式对人工智能领域是否可行。现在看来大家觉得有困难。首先,阿西洛马会议时,全球从事相关研究的科学家数量不多,比较容易达成共识。前些年我们自己也做过相关研究,目前全球有上百个国家的科学家都在进行基因编辑研究,尽管已有很多相关原则,但意见仍不统一。人工智能领域更是如此,参与者不仅是科学家,还有许多企业,而且企业间、国家间存在竞争。在这种情况下,仅靠科学家达成共识已非常困难。
我们刚才也在讨论,未来应如何有效规制人工智能风险?有没有可能像欧洲核子研究中心那样,不由各个公司单独进行,而是建立一个国际联合实验室?这个主意很好,但目前。最终可能需要通过联合国或其他治理机制来解决。我们讨论了很多机制。
大家也听到了关于未来年轻人如何面对系统性风险,特别是就业问题。前段时间有报告指出,人工智能对就业的负面影响,最大的是对刚刚走上职场的年轻人。这个问题如何解决?他也给出了很好的建议:有许多新的研究需求,例如加州大学圣地亚哥分校前几年成立的研究所,现已招募了50位科学家,创造了许多新机会;另外,大家要拥抱人工智能,学习新技能。
我就简要总结到这里。谢谢大家。
张燕冬:非常感谢薛老师和Terrence Sejnowski教授的精彩对话,刚才这场对话薛老师做了一个总结,从宏观层面理解了人工智能的演化逻辑、社会影响以及未来对年轻人有什么样的忠告。
(责任编辑:王治强 HF013)