转载自公众号:高飞的电子替身
近期,Meta首席AI科学家、图灵奖得主杨立昆(Yann LeCun),参加AI Inside播客的一次访谈,主持人Jason Howell和Jeff Jarvis和他做了一 个深度交流。杨立昆则觉得,语言模型只是茶杯里的风暴,根本不足以实现AGI。完全支持开源模型,也包括对家DeepSeek。因此,他对 DeepSeek的成功一点也不惊讶。
在采访中,杨立昆还明确表示:“如果我们能够构建出理解物理世界、拥有持久记忆、能够推理和规划的AI系统,那我们就有了为机器人提供动力的AI基础。”
杨立昆还有很多与主流立场完全不同的论点。比如他认为别说大模型实现不了AGI,甚至人类智能自身都不是通用智能。因为,人类智能是由自然选择塑造的专业化系统,专注于对生存繁衍有价值的特定任务。比如:我们在分层规划和物理世界交互方面表现出色,但在需要精确计算和记忆的任务上却相形见绌。
杨立昆提出了一个不同于AGI的名词:先进机器智能"(Advanced Machine Intelligence, AMI)。AMI不追求某种抽象的"通用性",而是一种能够理解物理世界、具备推理规划能力、拥有持久记忆并服从目标导向的智能形式。
而这种AMI,他认为会在未来十年左右实现。
不止是杨立昆持有这个看法。很多计算机视觉起家的科学家,也不认可大语言模型就意味着一切。去年我参加英伟达GTC2024,听到华裔AI科学家李飞飞讲,语言模型只是一维的。而现在我们谈多模态,谈世界模型,则需要三维性质作为表征。
对了,杨立昆对AI的能力有一个著名的猫论:当前AI系统虽然在语言处理上表现出色,但在理解和交互物理世界方面仍远远落后于一只家猫。他2024年甚至发了一个推文,说让AI像猫一样聪明,就是他的工作目标。
但在采访即将结束时,主持人Jeff问杨立昆是否有一只猫,因为他在整个讨论中多次提到猫的智能和能力。杨立昆回答说他自己其实并没有猫,但最小的儿子有,他偶尔会帮着照看一下。
更多内容,大家看访谈对话的细节吧。不管我们是否赞同杨立昆的看法,但是“须知参差多态,乃是幸福的本源”。毕竟当年辛顿主导的深度学习方法,也是人工智能领域的非主流。
一、LLM的实用价值与固有局限:70年AI发展史的重复模式
对话伊始,主持人提到杨立昆一直对LLM的局限性持有明确立场,而同时我们看到OpenAI等公司正在获得创纪录的融资,这些资金主要建立在LLM技术的成功之上。主持人好奇杨立昆如何看待这种看似矛盾的现象。
杨立昆首先承认LLM确实具有实用价值:"毫无疑问,LLM是有用的。特别是在编程助手等应用场景中,未来可能在更通用的AI助手工作中也会有所作为。"他指出,人们正在谈论代理系统(agentic system),但这类系统目前"还不是完全可靠"。
杨立昆强调,AI和计算机技术更广泛领域面临的一个反复出现的问题是:"你可以看到令人印象深刻的演示,但当需要部署一个足够可靠的系统,让人们日常使用时,这中间存在巨大差距。要让这些系统足够可靠要困难得多。"
他举了自动驾驶汽车的例子来说明这一点:"10年前,我们已经能看到汽车在乡村道路上自动驾驶的演示,大约10分钟后才需要人工干预。我们确实取得了很多进展,但我们仍然没有达到让汽车像人类一样灵活自如地自动驾驶的程度——除非我们采取一些'捷径',比如Waymo等公司正在做的那样。"
杨立昆接着指出了人工智能70年历史中的一个反复出现的模式:"在过去70年的AI发展历史中,人们会提出一种新的范式,然后宣称'这就是了,这将在10年内带领我们达到人类水平的AI,地球上最智能的实体将是一台机器'。每次这样的宣称最终都被证明是错误的,因为新范式要么遇到了人们没有预见到的局限性,要么被证明只是在解决一类问题上特别擅长,而这些问题并不等同于通用智能问题。"
他表示,一代又一代的AI研究人员、产业人士和创始人都做出过这样的宣称,每次都被证明是错误的。他强调自己并不是要贬低LLM:"我不想贬低LLM,它们非常有用。应该对它们进行大量投资,也应该对运行它们的基础设施进行大量投资——事实上,大部分资金都投向了这方面,而不是训练它们。"
杨立昆指出,像其他计算机技术一样,即使它不具备人类水平的智能,它也可以是有用的。他表示:"如果我们想追求人类水平的智能——我认为我们应该这样做——我们需要发明新的技术。我们现在还远远无法达到这一点。"
二、下一代AI研究:世界模型、推理规划与控制安全
Jeff Jarvis感谢杨立昆作为"现实主义的声音"出现在节目中,并提到他曾将当前AI系统的智能水平比作"智能猫咪或三岁儿童",甚至不及这个水平。他向杨立昆请教未来AI研究应当投入资源的方向。
杨立昆提到,他在三年前(在世界了解LLM之前)就撰写了一篇长文,阐述了他认为未来10年AI研究应该走向何方。即使在LLM取得成功后,这一愿景也没有改变。他详细阐述了这一愿景:
"我们需要能够理解物理世界的机器。我们需要能够推理和规划的机器。我们需要具有持久记忆的机器。我们需要这些机器是可控的和安全的,这意味着它们需要由我们给它们的目标驱动。我们给它们一个任务,它们完成它,或者它们给我们我们问题的答案。就是这样,对吧?它们不能逃避我们要求它们做的任何事情。"
杨立昆解释说,这一愿景的核心概念是"世界模型"(world model):"我们所有人头脑中都有世界模型,动物也有。这基本上是我们头脑中的心理模型,它允许我们预测世界中会发生什么,无论是世界自然运行的结果,还是因为我们可能采取的行动。"
他进一步解释道,如果我们能够预测我们行动的后果,那么当我们设定一个目标或任务时,我们可以利用我们的世界模型来想象特定的行动序列是否能实现该目标。这使我们能够进行规划。
"规划和推理实际上就是操纵我们的心理模型,以确定特定的行动序列是否能完成我们为自己设定的任务。这在心理学中被称为系统2(System 2),即有意识的、深思熟虑的思维过程。"
杨立昆坦言,我们目前还不知道如何真正实现这一点。他指出,在这个领域最有趣的研究正在机器人领域进行,因为当你需要控制机器人时,你需要预先知道向机械臂施加扭矩会产生什么效果。
"在控制理论和机器人学中,想象一系列动作的后果,然后通过优化搜索满足任务的动作序列,这一过程甚至有一个名字和缩写:模型预测控制(Model-Predictive Control, MPC)。这是优化控制中一种非常经典的方法,可以追溯到几十年前。"
他指出,在机器人学和控制理论中,世界模型是一组由工程师编写的方程式。但对于AI系统,我们需要这个世界模型从经验或观察中学习。这似乎是动物和婴儿大脑中发生的过程——通过观察学习世界如何运作。这部分看起来确实很复杂,难以复制。
杨立昆表示,这可以基于一个人们长期研究但未取得太多成功的简单原则:自监督学习(self-supervised learning)。他解释说,自监督学习在自然语言理解和LLM方面取得了巨大成功,事实上,它是LLM的基础:
"你拿一段文本,训练一个大型神经网络来预测文本中的下一个词。这基本上就是LLM的工作原理。当你使用它时,它预测下一个词,将预测的词移入它的视窗,然后预测第二个词,将其移入,预测第三个词。这就是自回归预测(autoregressive prediction)。LLM就是基于这一点,所有技巧都在于你能花多少钱雇人对其进行微调,使其能正确回答问题。"
杨立昆设想,可以将自监督学习的原则用于学习图像表示或预测视频中会发生什么:"如果你向计算机展示一段视频,训练一个大型神经网络来预测视频中接下来会发生什么,如果系统能够运行并很好地完成这种预测,它可能已经理解了很多关于物理世界的基本性质——物体按照特定规律移动,有生命的物体可以以更不可预测的方式移动,但仍然满足一些约束等。"
他指出,人类婴儿需要九个月才能学会重力,而年轻动物似乎学得更快,尽管它们对重力的理解不同。但当尝试单纯地训练系统预测视频中下一帧时,这种方法不起作用:"如果你训练它预测下一帧,它不会学到任何有用的东西,因为这太容易了。如果你训练它预测更长期的内容,它实际上无法预测视频中会发生什么,因为可能会发生很多合理的事情。"
杨立昆解释了文本和视频预测的根本区别:"在文本的情况下,这是一个非常简单的问题,因为字典中只有有限数量的单词。你可以预测所有词在字典中的概率分布,这已经足够好了。但对于视频,我们不知道如何表示所有图像、视频帧或视频片段的适当概率分布。这实际上是一个数学上难以处理的问题,不仅仅是我们没有足够大的计算机,而是本质上难以处理。"
直到大约5-6年前,杨立昆和其他研究人员才开始找到解决方案。他们提出了一种名为"联合嵌入预测架构"(Joint Embedding Predictive Architecture, JEPA)的架构:"我们基本上训练一个系统来运行视频的表示,并在表示空间中进行预测。该表示消除了视频中许多不可预测或无法计算的细节。令人惊讶的是,这种架构不是生成性的。每个人都在谈论生成式AI,但我的直觉是,下一代AI系统将基于非生成模型。"
三、AGI的定义与时间线:人类智能并非通用,深度学习是基础
主持人提到了关于AGI(人工通用智能)的争论,有些人认为它即将到来,有些人认为它已经存在,还有人认为它永远不会实现。他询问杨立昆的看法。
杨立昆明确表示:"在我看来,毫无疑问,在未来某个时刻,我们会拥有至少与人类一样聪明的机器,在人类擅长的所有领域。这不是一个问题。很多人对此有重大的哲学问题,很多人仍然相信人类本质是某种不可捉摸的东西,我们永远无法将其简化为计算。我在这个维度上不是怀疑论者。在我看来,毫无疑问,在某个时候我们将拥有比我们更聪明的机器。在某些领域,它们现在就已经比我们聪明了。"
接着,他质疑了AGI的定义:"AGI到底意味着什么?是指通用智能吗?你如何定义通用智能?是指像人类智能一样通用的智能吗?如果是这样,那么你可以使用这个短语,但它非常具有误导性,因为人类智能根本不是通用的。它是极其专业化的。我们是由进化塑造的,只做对生存有价值的任务。我们认为自己拥有通用智能,但我们根本不是通用的。只是我们无法理解的所有问题,我们可以思考它们。这使我们相信我们有通用智能,但我们绝对没有通用智能。"
因此,杨立昆认为"AGI"这个短语是没有意义的,非常具有误导性。他更喜欢Meta内部用来表示人类水平智能概念的短语:"先进机器智能"(Advanced Machine Intelligence, AMI)。他解释说:"这是一个更开放的概念。我们实际上把它发音为'ami',在法语中意思是'朋友'。但如果你愿意,我们可以称之为人类水平的智能。"
谈到实现人类水平智能的时间线,杨立昆表示:"毫无疑问它会发生。它不会在明年发生,也不会在两年后发生。它可能会在未来10年内某种程度上发生。所以它不是那么遥远。如果我们目前正在研究的所有东西都证明是成功的,那么也许在10年内,我们将很好地掌握是否可以达到这个目标。但它几乎肯定比我们想象的要困难,可能比我们想象的要困难得多,因为它总是比我们想象的要困难。"
杨立昆表示自己持乐观态度:"我不是那些悲观主义者中的一员,他们说我们永远无法实现这一目标。我不是那些悲观主义者中的一员,他们说我们现在所做的一切都是无用的。这不是真的,它非常有用。我不是那些说我们需要量子计算或一些全新原理的人...不,我认为它将基本上基于深度学习。我认为这一基本原理将伴随我们很长一段时间。但在这个领域内,我们需要发现和实现的各种事物,我们还没有达到。我们缺少一些基本概念。"
他通过一系列例子来说明当前AI系统的局限性:"我们有能够回答互联网上有答案的任何问题的系统。我们有能够通过律师资格考试的系统,这基本上是信息检索。我们有能够缩短文本并帮助我们理解它的系统。它们可以批评我们正在写的文章。它们可以生成代码,但生成代码在某种程度上相对简单,因为语法很强,而且很多都是逐字复制。"
"我们有能够解方程、解决问题的系统,只要它们被训练解决这些问题。如果它们看到一个全新的问题,当前系统就无法找到解决方案。最近有一篇论文显示,如果你测试所有最好的LLM在最新的数学奥林匹克竞赛上,它们基本上得零分,因为这些是它们没有被训练过的新问题。"
他进一步阐述了为什么语言能力与真正的智能不同:"我们有那些能够操纵语言的系统,这让我们误以为它们很聪明,因为我们习惯于聪明的人能够以聪明的方式操纵语言。但我的家庭机器人在哪里?我的5级自动驾驶汽车在哪里?能做猫能做的事情的机器人在哪里?甚至一个模拟机器人能做猫能做的事情。问题不在于我们不能建造机器人。我们实际上可以建造具有物理能力的机器人。只是我们不知道如何使它们足够聪明。"
他强调,处理真实世界和产生行动的系统比理解语言的系统要困难得多:"语言是离散的,结构强。现实世界是一团糟,是不可预测的。它不是确定性的,它是高维的,它是连续的,它有所有的问题。所以让我们尝试建造能跑得像猫一样快的东西吧。"
四、人类智能模型的局限:神经网络推理与人脑思维方式的本质差异
Jeff Jarvis提出了一个深刻的问题:人类水平的活动或思维方式是否应该成为模型,这种思路是否局限了我们?他提到了Alex Rosenberg的著作《历史如何错误理解事物》,该书质疑心灵理论,认为我们没有经过这种推理,实际上我们的思维方式与LLM类似,即我们头脑中有一堆"录像带",当我们遇到情况时,我们找到最接近的录像带并播放,以此方式决定是或否。
杨立昆回应说,他追求的是一种类似于人类和动物智能的智能形式:"当前的AI系统在解决以前从未面对过的新问题方面有很大困难。所以它们没有我之前告诉你的那种心理模型,那种世界模型,允许它们想象它们行动的后果。它们不会以这种方式推理。LLM肯定不会,因为它唯一能做的就是产生词语,产生标记。"
他解释了当前LLM中使用的一种"技巧":"让LLM花更多时间思考复杂问题的一种方式是要求它经历推理步骤。因此,它会产生更多的标记,然后在回答问题时花费更多的计算。但这是一个可怕的技巧,这是一个黑客技术。这不是人类推理的方式。"
杨立昆给出了另一个例子:"LLM做的另一件事是,对于编写代码或回答问题,你让LLM生成大量的标记序列,所有这些都有一些不错的概率水平。然后你有第二个神经网络尝试评估每一个,然后选择最好的那个。这有点像产生大量对问题的答案,然后有一个批评者告诉你哪个答案是最好的。"
他解释说,虽然许多AI系统以这种方式工作,并且在某些情况下确实有效,比如让计算机系统下国际象棋,但这种推理形式非常有限:"这是一种有限形式的推理。为什么它是有限的?顺便说一下,这是一种人类非常不擅长的推理类型。事实上,一个你在玩具店花30美元买到的小玩意就能在国际象棋上击败你,这证明了人类在这种推理方面完全是菜鸟。我们只是真的不擅长。我们只是没有记忆容量,计算速度等等。"
那么人类和动物擅长什么呢?杨立昆解释道:"我们真正擅长的,猫、狗和老鼠真正擅长的是在现实世界中规划行动,并以分层方式规划它们。你会看到猫学会打开罐子,跳到门上打开它们,打开门锁之类的事情。所以它们学会了如何做这件事,它们学会了规划那一系列行动来达到一个目标,即到达另一边,也许是为了获取食物。你会看到松鼠做这些事情,对吧?我的意思是,它们在学习如何做这种事情方面实际上相当聪明。"
这种规划是我们不知道如何用机器复制的:"很多都是完全内部的。它与语言无关,对吧?作为人类,我们认为思考与语言有关,但事实并非如此。动物可以思考。不会说话的人可以思考。大多数类型的推理与语言无关。"
杨立昆给出了一个生动的例子:"如果我告诉你,想象一个立方体在你面前或在我们面前的空中漂浮。现在沿着垂直轴将该立方体旋转90度。好的,所以你可能假设立方体是水平的,底部是水平的。你没有想象一个有点倾斜的立方体。然后你旋转了90度,你知道它看起来就像你开始时的立方体,因为它是一个立方体,它有90度对称性。这种推理中没有语言参与。它只是图像和对情境的抽象表示。"
他解释了我们如何进行这种思考:"我们有这些抽象的思维表示,然后我们可以通过我们想象采取的虚拟行动来操纵这些表示,比如旋转那个立方体,然后想象结果。这就是使我们能够在现实世界中完成任务的原因,在抽象层面上。立方体是什么材料,有多重,是否在我们面前漂浮,这些细节都无关紧要,表示足够抽象,真的不关心这些细节。"
杨立昆谈到了分层规划的重要性,用一个从纽约到巴黎的旅行计划为例:"如果我想明天去巴黎,我不可能以肌肉控制的毫秒级来规划我的巴黎之行,因为这是几个小时的肌肉控制,并且会依赖于我没有的信息。所以我必须进行分层规划。我必须想象,如果我想明天去巴黎,我首先必须去机场乘飞机。好的,现在我有一个子目标,去机场。我如何去机场?我在纽约,所以我可以下楼去街上,打车。我如何下到街上?好吧,我必须走电梯或楼梯,按按钮,下楼,走出大楼。在那之前,我必须走进电梯或去楼梯。我甚至如何从椅子上站起来?"
他指出,这些行动的复杂性是巨大的:"你能用语言解释你如何爬楼梯或从椅子上站起来吗?你不能,这是对现实世界的低层次理解。在我刚才描述的所有子目标中,你会达到一个点,在那里你可以不用真正规划和思考就完成任务,因为你习惯于从椅子上站起来。但这个过程的复杂性,想象你的行动后果会是什么,然后规划一系列行动来完成这个任务,这是AI未来几年的大挑战。我们还没有达到那个水平。"
五、Meta的开源战略:LLAMA对三家公司是破坏者,对数千家公司是赋能者
Jeff Jarvis转向Meta的AI战略,特别是关于LLAMA的开源策略:"Meta决定走开源或开放或可用的路线,LLAMA是一个非常好的工具。作为一名教育工作者,我很感激。正是因为LLAMA,大学才能运行模型,从中学习并建立事物。我觉得,我经常这样说,Meta在LLAMA方面的战略,你们在这里的战略,对于行业的很大一部分来说是一个'破坏者',但对于巨大的开放发展来说,无论是学术还是创业,都是一个'赋能者'。我很想听听你对开放LLAMA背后的战略的看法。"
杨立昆幽默地回应:"好的,它对于恰好三家公司(OpenAI等前沿闭源公司)来说是一个破坏者。它对数千家公司来说是一个赋能者。"
他进一步解释了Meta开源策略的伦理和实用考量:"从纯粹的道德观点来看,这显然是正确的事情。LLAMA 2在有限开源条件下的发布基本上完全启动了AI生态系统,不仅在工业和初创公司中,而且在学术界中,正如你所说的那样。学术界基本上没有能力以与公司相同的水平训练自己的基础模型。所以他们依赖这种开源平台来为AI研究做出贡献。"
杨立昆指出,这是Meta发布这些基础模型的主要原因之一:"启动创新,加速创新。问题不在于这家公司比那家公司领先三个月,这实际上是现在的情况。问题是,我们现在拥有的AI系统是否具备我们想要构建的产品所需的能力?答案是否定的。"
他揭示了Meta最终想要构建的产品:"Meta最终想要构建的产品是一个AI系统,或者可能是一系列AI系统,它们始终与我们在一起。也许它生活在我们的智能眼镜中,我们可以与之交谈。也许它会在镜片中显示信息等等。为了让这些东西最大限度地有用,它们需要具有人类水平的智能。"
杨立昆认为,走向人类智能不会是一个事件:"不会有一天我们没有AGI,而第二天我们有AGI。它不会以这种方式发生。如果发生了,我会请你喝酒。"
他认为,真正的问题是如何尽可能快地向人类水平智能迈进:"既然这是我们面临的最大科学和技术挑战之一,我们需要来自世界各地的贡献。好主意可以来自世界任何地方。我们最近在DeepSeek看到了一个例子,它让硅谷的每个人都感到惊讶。它并没有让我们这些开源世界的许多人感到那么惊讶,对吧?我的意思是,这就是重点。这是对整个开源理念的某种验证。"
杨立昆强调,好主意可以来自任何地方,没有人对好主意有垄断,除了那些有"令人难以置信的膨胀的优越感"的人。他表示:"我认为这仍然是一个重大的科学挑战,我们需要每个人的贡献。因此,我们在学术研究环境中知道的最好方法是,你发表你的研究,尽可能地将你的代码开源,让人们做出贡献。"
他认为,过去十几年AI的历史表明,进展之所以迅速,是因为人们分享代码和科学信息:"在过去三年里,一些参与者开始爬升,因为他们需要从技术中产生收入。现在,在Meta,我们不直接从技术中产生收入。我们从广告中产生收入,这些广告依赖于我们基于技术构建的产品的质量。依赖于社交网络的网络效应,或者我们的...通往人民和用户的导管。所以,我们分发我们的技术这一事实并不会在商业上伤害我们。事实上,它帮助了我们。"
六、智能助手的未来与开放模型的重要性:文化多样性、公民选择与互联网基础设施
主持人Jason提到了可穿戴设备和眼镜的话题,分享了他去年12月体验Google的Project Astra眼镜的经历,并询问杨立昆关于这些技术在理解人类如何在物理世界中生活和操作方面的潜力。
杨立昆认为这是拼图的一个重要部分:"你随时随地都有一个助手,它看到你所看到的,听到你所听到的(如果你允许的话),可以帮助你,甚至比人类助手能帮助你的更好。这当然是一个重要的愿景。"
他进一步阐述了这一愿景:"实际上,这一愿景是你不会只有一个助手。你将拥有一整个智能虚拟助手团队与你一起工作。就像我们每个人都将成为老板一样。有些人感到受到威胁,因为机器会比我们更聪明,但我们应该感到被赋能。我的意思是,它们将为我们工作。"
杨立昆以科学家或行业经理的角度作比喻:"作为一名科学家或行业经理,最好的事情是你雇佣比你更聪明的学生、工程师或为你工作的人。这是理想情况。你不应该因此感到受威胁,你应该感到被赋能。所以我认为这是我们应该设想的未来。聪明的助手集合,帮助你的日常生活,也许比你更聪明,你给它们一个任务,它们完成它,也许比你做得更好,这很棒。"
接着,杨立昆将话题转向未来与数字世界互动的方式:"在未来,我们与数字世界的大部分互动将由AI系统调解。这就是为什么,你知道,Google现在有点疯狂,因为他们知道没有人会再去搜索引擎。你只会与你的AI助手交谈。所以他们正在尝试在Google内部进行这种实验。这将通过眼镜实现,所以他们意识到他们可能必须制造这些眼镜。几年前他们没有意识到这一点。所以我们有点领先,但这就是将要发生的事情。我们将拥有那些随时与我们在一起的AI助手,它们将调解我们所有的信息饮食。"
杨立昆提出了一个关键问题:"如果你考虑一下,如果你是世界上任何地方的公民,你不希望你的信息饮食来自由美国西海岸或中国的少数几家公司构建的AI助手。你想要多样化的AI助手,首先,会说你自己的语言,无论是晦涩的方言还是当地语言。其次,理解你的文化,你的价值体系,你的偏见,无论它们是什么。所以我们需要多样化的助手。出于同样的原因,我们需要多样化的新闻媒体,对吧?"
Jeff Jarvis热烈地表示同意,作为一名新闻学教授,他认为互联网和AI可以打破大众媒体的结构,重新在人类层面上开放媒体。
杨立昆继续解释:"所以,用当前技术实现这一目标的唯一方法是,如果构建这些具有文化多样性的助手的人能够访问强大的开源基础模型,因为他们不会有资源训练自己的模型。我们需要会说世界上所有语言的模型,理解所有价值体系,具有你能想象到的所有文化、政治偏见等等。将会有数千个这样的模型,我们将不得不从中选择。它们将由世界各地的小型工作室构建。它们将不得不建立在由像Meta这样的大公司或者可能是训练这些基础模型的国际联盟训练的基础模型之上。"
杨立昆预测了市场的演变:"我看到的市场演变类似于90年代末或2000年代初互联网软件基础设施发生的情况。在互联网早期,你有Sun Microsystems,Microsoft,HP,IBM和其他一些公司推动提供互联网的硬件和软件基础设施,他们自己版本的Unix或者其他,或者Windows NT,他们自己的Web服务器,他们自己的机架等等。所有这些都被Linux和商品硬件完全淘汰了。之所以被淘汰,是因为Linux作为一个平台软件,更便携,更可靠,更安全,更便宜,各方面都更好。Google是第一个这样做的公司之一,在商品硬件和开源操作系统上构建基础设施。Meta当然也做了完全相同的事情。现在每个人都在这样做,甚至Microsoft也是。"
他认为,市场将对AI基础模型产生类似的压力:"我认为市场会对这些AI基础模型产生类似的压力,使它们开放和免费,因为它是一种基础设施,就像互联网的基础设施。"
七、美国科技领导力面临的挑战:研究经费削减与签证政策威胁
主持人Jeff询问杨立昆作为教授22年的教育工作者,他观察到学生及其在这一领域的抱负有什么变化。
杨立昆表示,由于过去十年左右他只教研究生,所以很难看出显著变化,除了学生来自世界各地这一事实。然后,他表达了对美国当前形势的严重担忧:
"现在美国正在发生一些绝对可怕的事情,研究资金被削减,还有对外国学生不发放签证的威胁等等。如果按照目前的发展方向实施,这将完全摧毁美国的技术领导地位。STEM(科学、技术、工程、数学)领域的大多数博士生都是外国人。在大多数工程学科的研究生水平上,这一比例甚至更高,主要是外国学生。科技公司的大多数创始人或CEO都是在国外出生的。"(确实如此啊,我们前两天刚发过Replit创始人CEO的内容,他的公司创始团队就是约旦裔班底)
Jeff提到法国大学正在为美国研究人员提供去那里的机会,暗示这可能是对美国政策的反应。