原苹果首任AI总监:真正的智能,需要与世界互动
ChatGPT所表现出的惊人的“理解力”,是否是真正意义上的机器意识觉醒?通用人工智能之路上,目前还有哪些障碍?人工智能威胁论是否言过其实?未来的人工智能发展将何去何从?带着这些问题,腾讯新闻《潜望》近日独家对话了卡耐基梅隆大学人工智能教授、前苹果AI总监Ruslan Salakhutdinov。
Salakhutdinov师从图灵奖得主、“深度学习之父” 杰弗里·辛顿(Geoffrey Hinton),是剪枝、深度编码等著名学习方法的提出者。2016年,Salakhutdinov入职卡耐基梅隆大学,同年获得英伟达人工智能先驱奖,并加入苹果公司担任首任AI研究总监。
作为一名人工智能领域的资深学者,Salakhutdinov在对话中表达了乐观的态度。他表示,对这一轮AI所展现出的能力感到兴奋,且并不认为人工智能目前的发展会对人类生存带来威胁;他同时表示,大语言模型,虽然不一定是通用人工智能的唯一路径,但却是重要的基础,这方面的进展为学术界探索通用人工智能提供了更多的启发和信心。作为辛顿曾经的学生,他也对辛顿的担忧表示了理解,但依然坚持了自己对AI更为乐观的判断。
以下为此次对话的文字实录,内容有部分删减:
大模型将为教育等领域带来变革
腾讯新闻《潜望》:Salakhutdinov教授,感谢你今天接受我们的采访。现在我们正处于一个非常复杂的世界,很多事情正在以每天、每小时的速度在快速发生变化,所以我们感到非常幸运能有机会在这里真正讨论一些我们关心的、非常重要的问题。首先让我们谈一谈最近一段时间以来最热的话题,ChatGPT。去年底ChatGPT在初次发布后,你的第一反应是什么?
Russ Salakhutdinov:之前其实有GPT-2、GPT-3,我们有期待这些模型会越来越强大,但是当去年 11 月份ChatGPT上线时,很多人都非常惊讶地看到它的运作效果非常惊人。
在大量数据上构建这些大型语言模型,不仅仅是可以问、可以回答特定问题,它还可以为你总结事情。我的很多朋友都在使用ChatGPT进行编程。如果在几年前问我,今天能拥有这项技术吗?我可能会回答说不会,所以这就是为什么我认为这是一项了不起的技术,它也在很多不同的领域开辟了全新的机会。
腾讯新闻《潜望》:说到编程,这真的很棒,我之前没有任何编程经验,但我用ChatGPT并使用自然语言向它描述一些想要实现的目标,让它帮助生成相应的代码,它就真的帮我提供了可以执行的程序代码。
Russ Salakhutdinov:是的,这是我看到很多人实际使用这些大型语言模型来帮助编程的领域之一,因为这些大模型背后,微软和OpenAI基本上获得了整个 GitHub 存储库上的程序代码,所以用户在询问代码相关的问题时,语言模型会表现得非常好。未来我认为几乎每个编程工具都会有一个大型语言模型能帮助你,这是一个会看到很多应用程序的领域。
腾讯新闻《潜望》:虽然我们可以直接感受到ChatGPT所展现出的惊人的能力,但对于许多人来说,他们依然并不完全了解人工智能行业内正在发生的事情,所以ChatGPT或者其他大语言模型,对于普通人来说,究竟意味着什么?
Russ Salakhutdinov:首先这些模型是基于人们在过去20年里一直在研究它们的深度学习技术,为ChatGPT或 Bard 提供底层的模型来自谷歌,它是 Transformer 架构。
但这对普通人意味着什么,我认为我们将开始看到越来越多的你认识的人,通过自然语言与数据交互。
例如,我认为教育领域将会有很多机会,未来你将使用像ChatGPT或 Bard 这样的模型,它可以帮助你做作业,写论文也是其中之一,ChatGPT可能可以写出比你更好的论文,所以我认为我们会看到教育的变革。
例如,你的孩子在九年级、十年级,我们将有人工智能导师,他们将会针对每个人进行个性化辅导,你可以向它提出问题,它可以教你新的事物,向你解释如何编写代码,或向你解释一些数学术语,我认为该领域将在不久的将来迅速发展。
此外,我们今天与计算机交互的方式是,我们通常使用谷歌或百度来搜索信息,我认为这也会发生变化,因为将来交互将通过这些聊天机器人或语言模型进行,我可以向它提出问题,它会为我找到正确的信息,并给我想要的信息,这样我就不必去网站上点击并寻找正确的信息了。
腾讯新闻《潜望》:所以这就是为什么谷歌现在感到非常焦虑的原因?
Russ Salakhutdinov:是的,但这些大型语言模型像ChatGPT目前并不完美,因为它们会产生“幻觉”,我们将来可以解决这个问题吗?有些人认为我们无法解决这个问题,也许我们需要更长的时间,但无论如何,我认为我们与计算机的整个交互方式将会改变。
“我不认为我们处于需要担心AI风险的阶段”
腾讯新闻《潜望》:现在,我们也看到有很多围绕AI发展的辩论,也有很多关于人工智能发展的担忧,我们非常想知道你现在所处的立场。从人类未来的发展角度来看,你是更乐观,还是更悲观?
Russ Salakhutdinov:这是一个很好的问题。我认为现在人工智能研究领域中,基本上被分成两个阵营,一个阵营认为,人工智能会给我们带来很多伤害,甚至最终会威胁人类的生存,在未来成为人类的终结者。
另一个阵营认为,人工智能带来这么多机会和新东西,例如,医疗系统将会发生转变,人工智能将帮助你设计新药物,它还将帮助你获取新信息,一切与人工智能相关的使用潜力如此之大,这将是一个光明的未来。
我属于乐观阵营,我不认为目前我们面临人工智能所带来的巨大风险,即使我的前导师杰弗里·辛顿(Jeffery Hinton)真的相信人工智能的威胁。他是非常非常聪明的人,我不认为我遇到过任何比他更聪明的人,但我并不认为我们正处于需要担心的阶段。
我认为目前最大的担忧之一是错误信息的传播,例如今天我可以创建一个图像,使用提示,我就可以轻易伪造某人的声音,在不久的将来,我们能够大规模生成这样的视频,成本极低,这对大多数人来说,分辨信息的真伪将是非常困难的,就像 Photoshop 一样。
以前这需要花很长时间才能完成,但现在有了这项技术,也许有人可以用我的声音制作我的视频,你可能以为你在和我说话,但可能只是一个人工智能在对你说话,所以很多人都有点担心这个领域。现在问题是是否应该有法规,我们可以做什么来防止这种情况发生。当然还有人对信息偏差提出了一些担忧,很多模型都是在大量数据上进行训练的,如果数据本身是非常糟糕的数据,模型将学习这些坏数据,但这些模型一无所知。
腾讯新闻《潜望》:是的,我们注意到你几天前在个人推特上转发了一幅《纽约客》的漫画,这是一幅非常有趣的图片,描绘的是机器人奴役人类,你评论“这张图基本上描绘了我们所处的情况”,所以你认为这就是我们所面临的未来吗?
Russ Salakhutdinov:这是一个笑话,但如果你看看 ChatGPT,这些模型本质上是通过训练来预测或自动完成句子,从人类反馈中来对这些模型进行一些微调,但归根结底,这些模型就是所谓的自回归模型,它们一次预测一个单词。虽然这些模型在自然语言理解方面表现得很好,但这些模型从未看过视频,我的意思是,现在我们正在研究图像和语言,但是它们仍然缺乏一些所谓的世界模型,即世界是如何运作的,物理是如何运作的,你如何知道我们是人类。我们了解世界,而这些模型是缺乏的,因为它们只能正确地看待文本,所以这就是这些模型可能会达到的一个能力上限,当然这并不意味着它们没有用,它们在很多不同的领域都会非常有用,但至少我认为要比人类更聪明这还很遥远。
腾讯新闻《潜望》:作为辛顿教授以前的学生,你能理解为什么他如此担心吗?
Russ Salakhutdinov:是的,某种程度上我能理解他的担忧。因为从人的角度来说,我们要不断学习,大约需要二十年,然后你才开始在自己的领域变得非常聪明;但对于数字智能,因为这种大规模的分布式训练,它可以在几天之内阅读完整个互联网的所有内容。
现在我们有数以万计的 GPU 在不停地获取数据,所以他说,如果这种情况持续下去,我们拥有超级智力的可能性相当高,如果你有超级智力,那么就会有与之相关的风险存在,这就是他提出的一个担忧,这是一个合理的论点。我并不反驳它,但我只是不认为这些模型在文本上找到规律,并且由此形成决策来对抗人类,并且就像之前说的,它们缺乏对物理世界的感知。
真正的智能,需要与世界互动
腾讯新闻《潜望》:你刚刚提出了一个非常有趣的问题,我们现在还没有完全实现通用人工智能,例如 ChatGPT,它无法真正感知我们周围的世界,只能识别基于文本的内容,所以你认为需要多长时间人工智能真的可以对我们所处的真实物理世界形成感知?
Russ Salakhutdinov:这是一个非常好的问题,我想我不知道这什么时候会发生,我认为现在在工业研究或所谓的多模态模型方面有很多工作,模型不仅看文本,还看视频的图像,看你的图像,知道语音, 我们周围的一切, 问题是这些模型(所谓的基础模型)能否从环境中学习并变得聪明。
目前大语言模型缺乏的是我们称之为主动学习者,可以主动探索物理世界,就像我们现在基本上没有可以为我们做饭的机器人,甚至还没有可以自动驾驶的机器人,什么时候会出现这种情况?
目前还很远。要能够建立真正的智能,你需要与世界互动,不仅仅是被动地观察文本视频,是实际上能够互动。现在有很多这方面的研究正在进行,包括我自己的研究小组。我们建造了可以在你的房子周围移动的机器人,它可以理解你房子里的东西,或者与环境互动,但从技术上来说,我们距离目标还很远,我们称之为物理人工智能,而不是像 ChatGPT这样的大语言模型。
腾讯新闻《潜望》:在看到大语言模型所表现出的惊人的能力后,现在很多人都认为,目前大语言模型是最终达到通用人工智能(AGI) 的正确途径,你同意这种观点吗?
Russ Salakhutdinov:通用人工智能基本上意味着,它是一个系统,不仅可以解决特定的任务,还可以解决许多不同的任务,我认为语言模型肯定是关键,它们将在构建通用人工智能方面发挥关键作用,但与此同时,我们达到目标的距离依然很远。如果我们开始整合图像视觉其他所有这些,也许我们真的可以开始构建越来越智能的东西。
腾讯新闻《潜望》:是不是例如波士顿动力等一些机器人公司,已经实现了部分功能?
Russ Salakhutdinov:目前我们所看到的波士顿动力的机器人,很大程度上还是基于控制理论,并没有结合大语言模型。现在在卡耐基梅隆大学的一项研究工作,正在尝试将 ChatGPT 等大语言模型与机器人技术结合起来,ChatGPT可能会给你一个更高级的计划任务,告诉你需要做什么指令和机器人系统执行该计划,来解决此任务。所以我认为,大型语言模型、不同模态、图像、视频、机器人技术的结合是该领域将要发展的地方,虽然它目前仍然是非常困难的。
对于波士顿动力公司来说,他们花了 20 年的时间来建造这些机器人,但如果你让机器人握起一杯水,那仍然是困难的,所以还有很多工作要做。我知道很多大型科技公司,比如谷歌、微软、苹果等,他们有兴趣构建这些具体的代理,比如可以四处移动的机器人,比如一个帮助老年人的系统等。我们正在与很多这样的公司合作。
腾讯新闻《潜望》:我发现另一个非常有趣的话题是,即使某些大型语言模型显示出惊人的功能,而真正构建模型的人却不知道这些功能是如何出现的,似乎有很多未知与已知的事物。所以你认为这种趋势会持续下去,还是你认为将来相比未知,我们会有更多的已知?
Russ Salakhutdinov:这是一个非常好的问题,我认为现在人们对这些模型能够完成的任务的效果感到惊讶,正是模型的数据规模使得这些模型工作得越来越好,但模型的能力可能会触及到天花板,因为数据量有限。
我认为 OpenAI 已经抓取了网络上的所有内容,而谷歌也可能可以访问网络上的所有内容,因此我们可能需要开始开发更好的系统。现在这些模型也很难调试,例如它犯了错误,我们并不知道它为何会犯错误,因为这些是非常复杂的系统,就像当它产生“幻觉”时一样,很难说为什么会产生“幻觉”,所以这些模型缺乏一些黑匣子可解释性,所以我认为这些系统的下一代,你会将某种规则集或某种约束纳入这些模型中,以便它们总是产生事实上正确的示例答案。在这个领域确实有人在做工作,但现在大多数时候这些模型都是被我们称之为一个小黑匣子,很难判断里面发生了什么。
腾讯新闻《潜望》:就像你提到的那样,如果我们耗尽了互联网上所有可用的数据,接下来如果我们真的想让人工智能的能力提升到一个新的水平,下一步重要的是什么?
Russ Salakhutdinov:我相信人工智能系统的下一个演变,就像我们讨论过的那样,将是可以在物理世界中交互的代理,可以移动的机器人,可能是模拟的虚拟世界或物理世界。在人工智能的研究领域中,有一部分称为主动学习,就像我们人类与物理世界的相互作用一样,从中学习,我认为这种主动学习可能会成为人工智能的下一次迭代、下一次演变。
我认为下一个十年将是人工智能的黄金时代,你将开始看到越来越多的功能,也许更智能的模型,这是非常令人兴奋的。
所以这就是杰夫·辛顿为什么有理由产生担忧。
但我目前还看不到人工智能系统将接管世界的阶段,我认为它们目前还处在非常有用的阶段,这些模型的下一个演变将是主动采取行动的模型,例如,你只需告诉他,我需要去看医生,然后你的机器人会打电话给医生,会找到预约日期,告诉你明天12 点要去看医生,这就是对我们带来实际的帮助。
苹果在研发自己的大模型,且更重视数据隐私
腾讯新闻《潜望》:你之前曾在苹果工作,在那里领导人工智能研究,此前苹果刚刚宣布了他们的 Vision Pro,看起来苹果对未来的愿景和其他人不一样,采取一种不一样的路径。你能结合之前在苹果公司的经历,谈谈你的理解吗?
Russ Salakhutdinov:是的,我认为苹果是这个领域的领导者,我也曾在苹果工作过。你也知道Vision Pro,他们在ChatGPT 之前就已经在这方面工作了很长时间,当然苹果也在研究这些大型语言模型,我确信他们也正在研究他们自己的ChatGPT之类的系统。(注:在本文发布前一周,有消息称,苹果正在研发自己的大语言模型。)
Siri 和个人协助是苹果产品的一个非常重要的部分,但我认为,巨大的虚拟现实是一个有趣的尝试,但现在的问题之一仍然是你必须把这个东西戴在头上,这与 Meta的oculus是一样的,苹果显然非常相信可穿戴设备,你的手表、手机、耳机、平板电脑上的一切都是他们,他们想要集成。
当我在苹果时,我听说过这个项目。但我担心的是,你仍然不喜欢在头上戴东西,它会在你的额头上留下痕迹。我的意思是,我确信他们会不断改进,因为苹果的一个特点是,他们真的在考虑集成软件和硬件,这是非常非常强大的。
我知道苹果肯定正在研究大语言模型,他们也在考虑如何将该技术应用到产品中,基本上我认为苹果是唯一一家能够将软件和硬件方面结合得这么好的公司,可以真正将产品交付到每一个用户的面前,每个消费者都可以非常方便顺利地使用。
腾讯新闻《潜望》:当苹果第一次推出 Siri 时,我想可能是在 10 年前,当时人们对Siri所展现出的自然语言交互的能力感到非常惊讶,但经过这些年,现在看来, Siri却有些过时了,依然只能完成非常简单的任务,例如拨打电话、设置闹钟等,为什么苹果这些年没有真正更新和增强Siri的功能?
Russ Salakhutdinov:我在2020年离开苹果,即使在那个时候,我也认为谷歌有更好的语音识别能力,但苹果的独特之处在于,他们确实考虑到了隐私和个人数据保护的问题。
例如,当我询问Siri一些信息时,信息保留在手机上并执行;而在使用谷歌相关的设备和服务时,例如,你问一些问题,谷歌手机就会将这些信息发送到谷歌云,然后返回到你的手机,而云上拥有更多的计算能力,你可以做更多的事情。所以这就像两个完全不同的观点,这就是为什么我认为 Siri 落后于谷歌,因为苹果试图在你的手机上做所有的事情。
在某种程度上,我认为未来人们会更信任苹果设备,因为他们知道你的数据不会去某个地方,不会被人用来训练他们的模型。现在,苹果在构建这些大型语言模型时,他们也希望能够在手机上构建它们,我认为是对的,所以他们必须在能够处理的方面进行创新,因为ChatGPT 的工作方式就像参数模型中的多重性,它有很多参数,因此必须在云上运行,必须运行许多 GPU 来处理数据,你现在还不能在手机上做到这一点,所以这就是为什么我认为苹果他们试图考虑新的硬件、新的芯片、新的设计,以便在个人设备上处理这些信息。
腾讯新闻《潜望》:所以从这个角度来看,苹果在研发自己的大型语言模型方面,给自己设置了很多限制。
Russ Salakhutdinov:是的,但同时客户确实信任苹果,就像他们真正所宣称的那样,对隐私数据非常重视,所以我相信未来人们会比其他公司更信任他们。
OpenAI为何决定不开源?
腾讯新闻《潜望》:OpenAI现在是一家最受关注的公司,当Transformer架构在6、7年前提出时,为何OpenAI将大语言模型作为重点攻克的方向,并且现在一鸣惊人?
Russ Salakhutdinov:是的,事实上OpenAI的首席科学家之一是我的实验室伙伴,他就坐在我旁边,他是联合创始人之一。OpenAI在早期探索很多不同的东西,比如探索玩游戏,我认为他们正在尝试构建可以玩游戏的代理,就像我正在做的那样,他们尝试了机器人技术,他们尝试了很多不同的东西。
在某些时候,他们意识到通过语言应用存在潜力,他们最初使用Transformer,得到了回报。但对于OpenAI来说,要么创造出一些令人惊叹的产品,要么就破产了。
他们基本上只是专注于这一件事,尽管底层架构是由谷歌开发的,谷歌内部也有一个名为Bard的模型,它本质上与ChatGPT相同,但可能表现没有那么好。
腾讯新闻《潜望》:所以现在他们决定不将模型开源,你认为他们正在做正确的事情吗?
Russ Salakhutdinov:这是一个非常非常棘手的问题,OpenAI最初的使命是成为非营利组织,他们是要做开源的,但在他们开发GPT 3 模型的某个时刻,他们决定不开源它,因为他们认为人们可能会滥用该模型,他们可以生成很多假的文本或假的新闻,所以他们决定不开源。
OpenAI现在主要与微软合作,所以他们开发的所有技术都会进入微软的产品,微软非常支持他们,因为这需要大量的计算、大量的 GPU、大量的工程标记,才能完成这件事,微软显然不会开源它,因为它将成为产品的一部分,所以在这一点上我认为他们不会开源任何东西,因为他们必须盈利,他们必须生存。
但同时现在有很多项目,这些模型都是开源的,比如 Meta 发布了 LLama 模型,该模型是开源的技术,现在很多公司正在构建自己的模型,他们自己的语言模型。
腾讯新闻《潜望》:最近OpenAI的CEO Sam Altman进行了环球旅行,他见了很多欧洲的政客,还有到访印度和韩国,呼吁人工智能安全和监管,很多人都说他现在看起来更像一个政客,你认为他这样做的意图是什么?是为了呼吁国际社会对于人工智能更多的关注吗?
Russ Salakhutdinov:是的,我认为他是一个非常理性的人,他的独特之处在于,他在OpenAI没有任何股权,他在OpenAI的商业成功中不会得到任何利益,我尊重他这一点,因为他并不是为了钱而尝试做这些事。我认为他们正在做一些公共关系相关的事,为OpenAI建立品牌,希望人们在一切事物中使用它,这是品牌建设的一部分。
人工智能社区现在一次又一次地分裂,我们是否应该要求监管?如果我们不要求对这些发展的监管,有些人会采取极端的方式,他们说我们应该暂停,不要进行任何开发;有些人说不,我们应该继续开发人工智能,构建技术,然后测试它。所以这是一个非常有趣的时刻,因为没有人清楚地知道人工智能是否会接管世界并杀死我们,这只是很多不确定性,所以人们提出担忧。但我认为也许提高一些关注是好的,因为这项技术将被社会普通人使用,所以更多的关注将了解这些系统可以做什么。就像隐私一样,例如我分享我的个人数据给ChatGPT, 我不知道这是好事还是坏事,但至少提高了人们对这些系统的认识。
我认为总的来说,这是一件好事,我个人认为我们不应该发布对人工智能发展的严格规定。
未来很多公司都有自己的专门模型
腾讯新闻《潜望》:我们可以看到美国和中国的人工智能研发都令人兴奋,但从初创公司的角度也有一些非常显著的差异。在硅谷,我们看到很多人都在应用层做创新创业,而不去进行所谓大模型的研发,但在中国,很多公司说他们正在做自己的大型语言模型。为什么会存在这样的差异?
Russ Salakhutdinov:我认为未来许多公司都需要建立自己的大语言模型,原因是对于客户来说,自己的数据是最重要的,所以需要建立自己数据的大模型,以便消费者可以更简单的方式与我的数据进行交互。例如,彭博已经建立了基于自己的金融数据的GPT 模型。
我认为美国将成为关键参与者,你可能知道微软、谷歌、亚马逊将建立自己的模型,因为他们拥有自己的计算资源,或许在微软或谷歌等的帮助下,也会有很多专门的模型,比如金融模型,制药模型,每个行业都会建立自己的模型。如果我是一家金融公司,我不会将我的数据发送给OpenAI,它是私有的,是专有数据,这些信息进入OpenAI,然后它会传给其他人,所以我认为很多大公司都会拥有自己的专门的模型。
当然会有像的微软、谷歌、亚马逊这样的大玩家提供这些用于通用目的,但我觉得将来肯定会有很多专门的模型。
腾讯新闻《潜望》:对于一些像初创公司这样的小公司来说,他们缺乏大量的计算能力,没有像大公司那样的资源,所以他们创业的方向是否应该专注于应用层面?
Russ Salakhutdinov:我认为这些大玩家与其他人的区别在于计算资源,因为它很昂贵。构建这些模型,比如像在 5 万个 GPU 上训练,将花费你 5000 万美元。所以对于一个初创公司,我认为未来可能会出现像 LLama by meta 这样的开源模型,你可以采用这个开源模型,然后你可以采用自己的数据,再进行微调。
我正在与硅谷的很多公司交谈,这是很多人现在正在采取的方法,有很多初创公司正在尝试减少计算量。
构建这些模型,使计算量只有大模型的十分之一,就像你可以在OpenAI中进行很多优化一样,这样使得训练模型更便宜。如果我是一家制药公司,我真的想要建立非常非常准确的模型,我的模型可以更小,不需要那么多的计算,我可以采用这些开源的大型模型之一,并将其微调到我的特定领域,这就是未来可能发生的事情。
腾讯新闻《潜望》:现在行业除了关注大语言模型以及与其应用层相关的创新,还有其他值得探索的方向吗?
Russ Salakhutdinov:大型语言模型是所谓基础模型的一部分,基础模型基本上是一个像Transformer一样的模型,它建立在大量数据的基础上,人们现在可以为机器人技术建立一个基础模型,比如我的一个学生正在与英伟达合作,他试图建立一个像GPT模型一样的操纵模型,构建一个可以操纵任何类型物体的机器人,这是一个非常有趣的领域。
我们与英伟达合作,因为英伟达具备计算能力,但构建这个机器人仍然很困难,例如抓住我的 iPhone,操纵和放置。除了大型语言模型之外,人们现在正在尝试构建不同领域的基础模型,比如视频基础模型能否也取得巨大成功。如果我想在抖音上创建一些东西,我只需执行提示,它就会为我创建一个视频。
世界上最聪明的人都在研究AI
腾讯新闻《潜望》:你是否认为现在是你职业生涯中最激动人心的时刻?
Russ Salakhutdinov:到目前为止,我认为是这样,同时也有一点太多了,让人应接不暇。现在人工智能领域的博士生竞争也变得激烈,换做在今天我或许都无法申请到博士,因为我当时并没有重要的论文发表。但现在就是这样,甚至有时我会收到高中生的电子邮件,他们已经做了很多很出色的项目。
腾讯新闻《潜望》:这个地球上最聪明的一群人都来这个领域从事研究。
Russ Salakhutdinov:哦,是的,这真是太神奇了,就像我以前的一个学生杨植麟,他现在是清华大学的一名教授,他是我最聪明的学生之一,他实际上是建立了 GPT 模型前身的人,是与谷歌和我们现在的学生联合完成的,这真是太棒了。
腾讯新闻《潜望》:所以你认为现在这样的情况,在未来将如何演变,是会变得越来越激动人心,还是可能会有所冷却?
Russ Salakhutdinov:我当然希望未来会出现更多令人兴奋的事,我总是想起 2016 年的自动驾驶,当时我开始为苹果工作,负责自动驾驶相关工作。2016 年有很多令人兴奋的事情,埃隆·马斯克在特斯拉说两年后我们将拥有自动驾驶汽车,我们从无到有很快就到了80%、 90%,然后我们就陷入了困境,91%,91.5%……
我只是担心,在某些时候,我们是否会遇到天花板。因为自动驾驶汽车的进展非常快,但我们永远无法达到100%的正确程度。
现在已经有很多人用ChatGPT做许多事情,有一个案例,一位律师用ChatGPT起草起诉书,其中引用的一些案例完全是编造的。这就是一个问题,现在人们还没有到可以百分百信任的地步,所以我们依然必须小心这项技术,因为它还处于起步阶段,但我认为这项技术具有巨大的潜力。
腾讯新闻《潜望》:你认为即使我们采取了非常谨慎的态度和方法,是否有可能有一天人工智能的发展依然变得不可控?
Russ Salakhutdinov:作为一名科学家,你必须始终为这些事件分配概率,你不能说它永远不会发生,所以一定会有发生的概率,但我不认为现在会发生这种情况。好的方面是,现在已经有很多人工智能的子社区,致力于人工智能安全的研究,他们的工作是让人工智能研发不要犯愚蠢的错误。我不相信人工智能突然某一天情况会变得非常糟糕,但也许我可能是错的,所以这就是为什么在我们的社区中发出各种声音是好事,就像杰夫·辛顿和约书亚一样,他们确实发出了警报。但我认为大多数人工智能研究人员至少现在不这么认为,但是同时,也有研究人员在人工智能安全领域做研究是件好事,以防万一如果发生这种情况,我们会知道该怎么做。
腾讯新闻《潜望》:当辛顿教授宣布离开谷歌时,你是否对他的举动感到惊讶?
Russ Salakhutdinov:在过去的几年里,他一直在谷歌兼职,所以现在他决定离开,基本上是想说话。他应该是在考虑我所说的内容,将如何影响我所工作的公司。
我认为谷歌是实际上为数不多的正确做事的公司,他们对人工智能采取非常谨慎的态度,没有做任何疯狂的事情,他们实际上是非常好的公司,试图做正确的事。
我想,他并不是因为想说什么遭到了谷歌的阻止而不得不离开谷歌。杰夫是我的导师,他可能是我拥有的最好的导师,他给了我很多自由和探索,他真的非常聪明。因为他并不是在框架中思考,他的思考超出了之前的框架,这就是你所知道的。
我很幸运,他是让我进入深度学习领域的人,也是他让我进入博士项目,我当时没有想过要攻读博士学位,而是在考虑其他职业,但他有一天早上抓住我,带我去他的办公室,向我展示了这些深度学习类型的算法,然后我说,哇,这非常有趣,好吧,我要去读博士。
腾讯新闻《潜望》:这是一个有趣的故事,谢谢你与我们分享,通过今天的采访,我可以感受到你作为AI研究者的兴奋。感谢接受我们的采访!