图灵奖得主杨立昆最新访谈实录:让LLM投入更多“思考”时间分步推理,是一种很糟糕的技巧
仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接
来源:数字开物
4月10日,Meta首席AI科学家杨立昆接受海外播客AIInside的访谈,对话中回顾了历史重演的AI过度承诺,深入探讨了当前AI在真正推理、分层规划、解决新颖问题及与物理世界交互方面的欠缺,下一代AI的发展方向,Meta的开源策略以及未来AI助手与生态等话题。
杨立昆表示,他并非想贬低大语言模型,它们非常有用。不过AI系统需要的是能通过经验或观察来自主学习的世界模型,下一代AI将主要基于非生成式模型。
杨立昆还认为让大语言模型在复杂问题上投入更多“思考”时间,这是一种很糟糕的技巧,可以说是一种取巧的办法,这并不是人类进行推理的方式。
以下是本次对话实录
经数字开物团队编译整理
01
警惕历史重演的AI过度承诺
主持人提问:YannLeCun先生,您一直对大语言模型的局限性持鲜明观点,认为其存在收益递减的趋势。但与此同时,像OpenAI这样的公司主要凭借大语言模型获得了创纪录的融资,并将全部赌注押注于此。您认为,为什么这些公司可能没有看到您所指出的技术局限性,或者他们看到了但采取了不同的应对方式?您对此有何看法?
YannLeCun实录:他们也许确实看到了这些局限性。毫无疑问,大语言模型是有用的,尤其在编程助手等应用上表现出色,未来或许还能承担更通用的AI助手类任务。现在人们热议的AIAgent,目前来看还不是完全可靠。这里存在一个普遍问题,也是AI乃至整个计算机技术领域反复出现的情况:演示效果可能非常惊艳,但要部署一个足够可靠、能让用户放心日常使用的系统,往往还有很长的路要走。让系统达到足够的可靠性是非常困难的。
回想十年前,我们就看到了自动驾驶汽车的演示,在乡村道路上行驶大约十分钟就需要人工干预。如今我们取得了很大进步,但仍未达到让汽车能像人类一样可靠地自主驾驶的水平,除非采用一些取巧的办法,比如限定运行环境,就像Waymo等公司正在做的那样。
回顾过去70年的AI发展史,类似的故事反复上演:人们提出一种新的范式,随即宣称“就是它了!十年内我们将实现人类水平的AI,地球上最智能的将是机器!”然而每一次,这些预言都被证明是错误的。原因在于,新范式要么遇到了当初未曾预见的局限性,要么就是它只擅长解决某一类特定问题,而并非通向通用智能的关键。
一代又一代的AI研究者、业界人士以及创业者们,不断提出类似的论断,结果却屡屡被证伪。因此,我并非想贬低大语言模型,它们非常有用。我们应当在大语言模型上投入巨资,更应该在运行它们所需的基础设施上投入巨资(实际上大部分资金正是流向了运行和推理环节),因为需要服务潜在的数十亿用户,而非主要用于训练。如同其他计算机技术一样,即使它没有达到人类水平的智能,它依然可以非常有用。当然,如果我们确实想要追求人类水平的智能那就需要发明全新的技术,我们目前离那个目标还非常遥远。
02
下一代AI:构建理解物理世界、基于学习而非生成的的世界模型
主持人提问:您认为当前AI的智能水平尚有不足,大语言模型已接近极限。那么,下一代AI范式或飞跃的关键是什么?您提到需要更好地理解现实世界,能否具体谈谈您认为研究应走向何方,我们应将资源投向何处以取得更大突破?
YannLeCun实录:大约三年前,我写过一篇长文,阐述了我对未来十年AI研究方向的看法。那时大语言模型尚未广为人知,当然,我们内部早已开始研究。但那个愿景至今未变,并未受大语言模型成功的影响。核心观点是:我们需要能理解物理世界的机器;需要能进行推理和规划的机器;需要拥有持久记忆的机器;并且这些机器必须是可控且安全的,这意味着它们需由我们设定的目标驱动——给它们任务就去完成,问它们问题就给出答案,不能偏离指令。
在那篇论文中,我探讨了实现这些目标的一种可能路径,其核心是围绕“世界模型”这一概念展开。我们每个人的头脑里都有一个世界模型,动物也有。这本质上是我们脑海中的心智模型,让我们能预测接下来会发生什么——无论是世界的自然演变,还是我们自身行动可能引发的后果。因此,若能预测行动的后果,当我们设定目标任务时,便可运用世界模型来构想,某个特定的行动序列是否能达成目标。这就是我们进行规划的基础。规划与推理的本质,就是运用心智模型推演特定行动序列能否完成既定任务。这也就是心理学家所说的“系统二”,一种深思熟虑的、审慎的思考过程,核心在于弄清楚如何完成任务(我避免使用“有意识”一词,因其含义复杂)。
然而,如何让机器真正做到这一点,我们目前尚未掌握。研究层面取得了一些进展,其中许多最有趣的工作是在机器人学领域进行的。因为控制机器人必须预先知道施加特定力矩会产生何种效果。在控制理论和机器人学中,这种预测行动后果并通过优化寻找满足任务要求的行动序列的过程,确实存在且历史悠久,被称为模型预测控制(ModelPredictiveControl,MPC),是一种经典的优化控制方法。
但传统MPC方法的主要问题在于,其世界模型通常是由工程师手动编写的方程式。例如控制机械臂或火箭,可以直接写出动力学方程。但AI系统需要的是能通过经验或观察来自主学习的世界模型。这似乎正是动物和人类婴儿大脑的学习方式——通过观察来理解世界如何运转。复制这种学习过程极其困难。不过,这种学习或许能基于一项简单的原则:自我监督学习。虽然人们长期尝试该原则成效不明显,但它在自然语言理解和大语言模型等领域取得了惊人的成功。事实上,它就是大语言模型的基础。具体做法是:给定一段文本,训练一个大型神经网络来预测文本中的下一个词。基本原理如此,虽有技术细节优化效率,但核心不变。使用时,模型预测出第一个词,将其纳入输入窗口,再预测第二个词,纳入窗口,然后预测第三个词,如此循环。这就是所谓的自回归预测。
大语言模型基本上就是基于这个原理。其关键在于你能投入多少资金去雇佣人员进行微调,使其能正确回答问题。这正是当前大量资金投入的领域。你可以设想运用这种自监督学习的原则来学习图像的表示,或者学习预测视频中接下来会发生什么。例如,你给计算机播放一段视频,然后训练一个大型神经网络来预测视频的后续内容。如果这个系统能够学会这一点,并且能够准确地进行预测,那么它很可能已经对物理世界的基本规律有了深刻的理解。比如,物体会遵循特定的法则运动,有生命的物体的运动方式可能更难预测,但仍然会遵循某些约束条件。系统会理解,没有支撑的物体会因为重力而下落,诸如此类。
人类婴儿大约需要九个月的时间来认识重力,这是一个漫长的过程。相比之下,年幼的动物学习这个要快得多,但我认为它们最终对重力本质的理解程度是不同的。当然,猫和狗在这方面确实非常擅长。那么,我们该如何复现这种学习过程呢?如果我们采用那种简单直接的方法,我过去20年也一直在研究,就是借鉴处理文本的方式,转而处理视频,然后训练一个系统来预测视频的后续内容,结果发现这种方法并不奏效。如果你训练它预测紧邻的下一帧,系统学不到任何有用的东西,因为这个任务太简单了。而如果你训练它进行更长期的预测,它又根本无法预测接下来会发生什么,因为存在太多可能性。
对于文本来说,这个问题相对简单,因为词典中的词汇量是有限的。因此,即使你无法精确预测序列后的下一个词,你也可以计算出词典中所有词的一个概率分布,这通常就足够了,它能表示预测中的不确定性。但视频不行。我们不知道如何为一个包含所有可能的图像、视频帧或视频片段的巨大集合,给出一个合适的概率分布。在这个问题上,这实际上是一个数学上难以解决的问题。所以,这不仅仅是缺乏足够强大的计算机的问题,而是这个问题本质上就难以通过数学方法处理。
直到大约五六年前,我对这个问题还没有任何头绪,我认为当时谁都没有。后来,我们提出了一个解决方案,采用了一种新架构,改变了我们处理这个问题的方式。这种方法并不是去预测视频中发生的所有事情,我们主要是训练一个系统来学习视频的一种抽象表示,然后在这个表示空间内进行预测。这种表示会舍弃视频中大量无法预测或根本不可能推断出来的细节。这种架构我们称之为联合嵌入预测架构(JEPA)。关于它,或许令人惊讶的一点是,它并非生成式的。现在每个人都在谈论生成式AI,但我的预感是,下一代AI系统将主要基于非生成式模型。
03
反思AGI:当前AI在与物理世界交互和解决新问题上存在巨大鸿沟
主持人提问:当前关于AGI的讨论非常热烈,有人认为近在咫尺,有人认为永远不会实现,甚至有人认为已经实现。结合您谈到的现有AI的局限性——比如在理解物理世界、推理规划等方面的不足——您如何看待AGI这个概念?它是否真的临近,或者仍是遥远的理论?我们距离实现人类水平的智能还有多远?
YannLeCun实录:首先,我坚信不疑:未来某个时刻,我们必将拥有在所有人类擅长的领域至少能达到同等、甚至更高智能水平的机器。这一点是毋庸置疑的。当然,人们对此有过很多哲学层面的探讨。许多人仍然相信,人性中存在某种难以捉摸的、无法被还原为计算的本质。在这点上,我并不怀疑机器智能的可能性。我确信,未来某个时候我们会拥有比我们更智能的机器。事实上,在某些狭窄领域,它们已经超越了我们。
所以,接下来的问题是:AGI到底是什么意思?它的真正含义是什么?它指的是所谓的通用智能吗?如果是,那你所说的通用智能又指什么?是指像人类智能那样具有普遍适用性的智能吗?如果是这样,你可以用AGI这个词,但它极具误导性。因为人类智能根本不是通用的,而是高度专门化的。进化塑造了我们,使我们专注于那些对生存至关重要的特定任务。我们自认为拥有通用智能,但事实并非如此。或许是因为,即使面对那些我们无法完全理解或解决的问题,我们依然能够去思考它们,这让我们误以为自己拥有通用智能。但我们绝对没有。所以,首先,我认为AGI这个提法本身就有问题,它非常具有误导性。在Meta内部,我们更倾向于使用先进机器智能(AdvancedMachineIntelligence,AMI)这个术语,来指代达到人类水平智能这个概念。这是一个相对更开放的定义。
所以,这件事(达到人类水平智能)毫无疑问会发生。但不会是明年,也不会是后年。有可能在未来10年内实现,或者至少取得一定程度的进展。因此,如果我们目前正在进行的所有研究方向都被证明是成功的,那么这个目标或许并不像想象中那么遥远。也许在10年之内,我们就能更清楚地判断是否能够达到那个目标。但这几乎肯定比我们想象的要困难,甚至可能困难得多。因为事情总是比我们预想的更复杂,回顾人工智能的发展史,一直都是如此。这就像我之前跟你讲过的故事一样。
所以,我个人是乐观的。我不是那种断言“我们永远无法实现目标”的悲观主义者,也不是那种否定“我们当前所有努力都毫无用处”的悲观主义者。事实并非如此,这些研究非常有价值。我也不是那种认为我们需要依赖量子计算,或者某些全新的、完全不同的科学原理才能取得突破的人。不,我认为未来的发展基本上将建立在深度学习的基础之上。而且我认为这个底层原理将在很长一段时间内持续发挥作用。
但是在这个领域内,我们还需要去发现和实现很多东西,我们还远未达到目标,仍然缺失一些基本概念。要认识到这一点,最好的方法就是看看现状:我们现在的系统能够回答互联网上能找到答案的任何问题;能够通过律师资格考试,但这很大程度上依赖于信息检索;可以精简文本、辅助理解;可以评价文章;可以生成代码——但生成代码在某种程度上相对简单,因为其语法结构性强,且大量基于模板。我们还有系统能解方程,能解决那些它们被专门训练过的问题。可一旦遇到全新的、需要从零开始解决的问题,现有系统就束手无策了。
实际上,最近有篇论文指出,如果你用最新的国际数学奥林匹克竞赛题目去测试所有顶尖的大语言模型,它们的得分基本为零。因为这些都是新颖的问题,模型之前没有学习过如何解决它们。所以,我们现在拥有的这些系统非常擅长操纵语言,这容易误导我们,让我们以为它们很聪明,因为我们习惯于将语言能力等同于智力。
但问题是,我的家务机器人在哪里?我的L5级自动驾驶汽车在哪里?能做到一只猫所能做的事情的机器人又在哪里呢?哪怕只是一个模拟机器人?猫能做到的那些事情?我的意思是,问题甚至不在于我们造不出这样的机器人(我们实际上能够制造出具备所需物理能力的机器人)。关键在于我们不知道如何让它们变得足够聪明。让系统与真实世界交互、并产生行动,这远比让系统理解语言要困难得多得多。这又回到了我之前提到的核心挑战:语言是离散的,具有清晰的结构;而真实世界则是一个极其复杂的、不可预测的、非确定性的、高维的、连续的系统。它包含了所有真正的难题。所以,我们不妨先设定一个目标:试着构建一个能像猫学得一样快的系统。
04
AI的目标与推理:超越语言模仿,探索深层规划
主持人提问:既然人类智能并非通用,且当前AI在与物理世界交互和解决新问题上存在鸿沟,我们是否还应该以达到人类水平的活动能力或思维模式作为AI发展的模型?考虑到有观点认为人类思维可能更接近模式匹配而非严格逻辑推理,AI最终成功的标准应该是什么?是达到猫或人类的智能水平,还是发展出某种完全不同的能力?
YannLeCun实录:这是一种在特定方面与人类和动物智能相似的智能。目前的人工智能系统在解决从未遇到过的新问题时面临很大困难。它们缺乏我之前提到的心智模型或世界模型,而这种模型能让生物在一定程度上预见自身行为的后果。它们并非以这种方式进行推理。例如,大语言模型肯定无法做到,因为它唯一能做的就是生成文本,生成Token。
因此,如果你想让大语言模型在复杂问题上投入更多“思考”时间(而非简单问题),一种方法是引导它分步推理,这样它会生成更多Token,并消耗更多算力来回答问题。但这是一种很糟糕的技巧,可以说是一种取巧的办法。这并不是人类进行推理的方式。再举个例子,大语言模型在编写代码或回答问题时,你可以让它生成大量具有一定概率的候选Token序列。然后,你用第二个神经网络来评估这些序列,并从中选出最优的那个。这有点像针对一个问题生成许多答案,然后让一个“评论家”来指出哪个答案最佳。现在确实有很多AI系统采用这种工作方式,并且在某些特定场景下效果不错。
例如,你想让计算机系统下国际象棋,其工作原理就是这样。它会生成一个包含你和对手所有可能走法的决策树。这棵树会指数级增长,所以你无法生成完整的树,必须用巧妙的方法只生成其中的一部分。然后,你使用所谓的评估函数或价值函数来挑选出决策树中的最优分支,该分支指向最有可能获胜的局面。如今,所有这些环节(生成有利分支并从中选择最优解)基本上都是通过训练神经网络来实现的。这是一种有限的推理形式。为何有限?顺便说一下,这恰恰是人类极其不擅长的那类推理。你在玩具店花30美元买的小设备就能在国际象棋上赢你,这个事实表明,人类在这种计算式推理上简直糟透了。我们确实不擅长这个,缺乏足够的记忆容量、计算速度等必要条件。所以我们在这方面表现很差。
然而,我们以及猫、狗、老鼠等动物真正擅长的,是在现实世界中规划行动,并以分层的方式进行。比如说,我们需要知道,如果想达成某个目标(比如去到门的另一边获取食物),就需要规划一系列行动。(这方面可以举人类的例子,动物界也有类似情况,例如你会看到猫学会开罐头、跳上门把手开门、甚至打开门锁)。你看松鼠也是这样做的,它们在学习这类事情时其实相当聪明。
这种规划能力,我们目前还不知道如何在机器上复现。很大程度上,这完全是内在的思考过程,与语言无关。我们人类倾向于认为思考与语言密切相关,但事实并非如此。动物能够思考,不能说话的人也能思考。实际上,大多数类型的推理都与语言无关。例如,我让你想象一个立方体悬浮在你面前的空中。然后,让这个立方体沿垂直轴旋转90度。很可能,你默认了这个立方体是水平放置的,底部是平的,而不是一个倾斜的立方体。然后你旋转了它90度,并且你知道旋转后的立方体看起来和原来一样,因为它具有90度旋转对称性。这个推理过程完全不涉及语言,只关乎图像以及对情境的某种抽象表征。我们是如何做到这一点的呢?我们拥有这些抽象的思维表征,可以通过想象中的虚拟动作(例如旋转立方体)来操纵这些表征,并预想结果。正是这种能力,使我们能够在抽象层面完成现实世界中的任务。这个立方体是什么材质、多重、是否真的悬浮在我们面前,这些细节都无关紧要,因为我们的表征足够抽象,可以忽略这些细节。
再举个例子,我在纽约,计划明天到巴黎。我不可能根据最基本的动作——即毫秒级的肌肉控制——来规划整个行程。这根本行不通,因为这涉及到数小时的肌肉控制,并且依赖于我当前无法获知的信息。例如,我下楼到街上打车,不知道要等多久才有车,也不知道红绿灯是红是绿。我无法如此细致地规划全程。所以我必须进行分层规划。我需要设想:要去巴黎,首先得去机场乘飞机。好了,现在有了一个子目标:去机场。怎么去机场呢?我在纽约,可以下楼打车。怎么下楼呢?我得走到电梯或楼梯口,按下按钮,下楼,走出大楼。在此之前,还有一个子目标:走到电梯或楼梯口。我甚至要先从椅子上站起来。那么,你能用语言解释清楚如何爬楼梯或者如何从椅子上站起来吗?你不能。这属于对现实世界更底层的、内隐式的理解。在我刚才描述的这一系列子目标分解过程中,你会深入到某个层次,在那里你可以直接完成任务,几乎无需有意识的规划和思考,因为你对从椅子上站起来这类动作早已习惯。但是,运用你内在的世界模型来预测行为后果,并据此规划行动序列以达成目标,这个过程的复杂性,正是AI在未来几年面临的巨大挑战。我们目前还远未实现这一点。
05
MetaLlama开源策略的考量
主持人提问:Meta为何决定开源Llama?这一策略一方面可能冲击了少数大型科技公司,但另一方面极大地推动了整个开放生态(无论是学术界还是创业圈)的发展,使大学等机构能够运行模型、学习并进行创造。能否请您阐述以这种方式开放Llama背后的战略考量是什么?
YannLeCun实录:它确实对大约三家公司构成了“搅局者”的角色,没错。但它同时是成千上万家公司的“推动者”。所以,从纯粹的道德角度来看,这显然是正确的选择。Llama2以有条件的开源形式发布,基本上给整个AI生态系统注入了强大动力,这不仅体现在产业界和初创公司,正如你所说,也体现在学术界。学术界基本上没有足够的资源来训练出与大公司水平相当的基础模型。因此,他们需要依赖这类开源平台来进行AI研究并做出贡献。
这正是Meta选择开源这些基础模型的主要原因之一:促进创新,加速创新。关键问题不在于哪家公司暂时领先了三个月——尽管目前情况确实如此。关键在于,我们现有的AI系统是否具备足够的能力来支持我们想要构建的产品?答案是否定的。Meta最终希望构建的产品是一款(或一系列)AI助手,它能时刻伴随我们,也许就集成在我们的智能眼镜里。我们可以和它对话,它可以在镜片上显示信息等等。要让这些助手发挥最大效用,它们需要具备人类水平的智能。
我们知道,实现人类水平的智能并非一蹴而就,它不会是一个突发的事件。不会是某天我们还没有人工智能,第二天就突然有了。事情不会是这样发展的。所以,真正的问题在于,我们如何才能以尽可能快的速度,在通往人类水平智能的道路上取得进展。而且,鉴于这是我们面临的最重大的科技挑战之一,我们需要全球各地的贡献。
好的想法可能来自世界任何角落。我们最近就看到了DeepSeek的例子,它让硅谷的所有人都大吃一惊,但在开源世界里,我们许多人对此并不那么惊讶。这才是关键,可以说是对整个开源理念的一种验证。所以,你看,好的想法可以来自任何地方。没有人能垄断好的创意,除非是那些自我感觉极其优越的人。当然,我们并非特指任何人。确实不是。但在美国某些地区,这类人确实相当集中。他们当然有既得利益去传播某种观念,即他们不知何故就比其他人更优秀。
所以,我认为这仍然是一个重大的科学挑战,我们需要每个人的参与。因此,在学术研究领域,我们所知的最佳实践是:发表研究成果,尽可能开源代码,让社区能够参与贡献。而且我认为AI在过去十几年的发展历程确实证明了这一点。进展如此迅速,正是因为大家愿意分享代码和科学信息。不过,在过去三年里,该领域的一些少数参与者开始变得封闭,因为他们需要通过这项技术盈利。
现在,在Meta,我们并不直接从技术本身获取收入。我们的收入来自广告,而这些广告的效果取决于我们基于这些技术所构建的产品质量,并且,它们也依赖于社交网络的网络效应以及触达用户的渠道。因此,我们开放技术在商业上并不会损害自身利益,实际上反而有所助益。
06
未来的AI助手需植根于开放基础模型,通过可穿戴设备融入生活
主持人提问:您提到智能眼镜等可穿戴设备可能是AI助手的未来形态,这似乎是帮助我们理解周遭世界的绝佳下一步。这种让AI深入物理世界、收集人类生活与互动信息的方式,是否是训练您所说的能够理解物理现实的世界模型的关键途径?鉴于未来我们与数字世界的互动将主要通过AI助手进行,这是否意味着我们需要一个高度多样化、反映不同语言文化、并且建立在开放基础模型之上的AI生态系统,以避免信息渠道被少数公司垄断,类似于开源软件基础设施(如Linux)的演变?
YannLeCun实录:可穿戴设备和收集现实世界信息是一部分,而且是重要的一部分。没错,设想你随时都有一个助手伴随左右,它能看到你所见,听到你所闻。当然,前提是你允许。如果你允许的话。它在某种程度上是你的伙伴,能够帮助你,甚至可能比人类助手做得更好。这当然是一个重要的愿景。
事实上,未来的愿景是你不会只有一个助手,而是可能拥有一整个智能虚拟助手团队围绕着你工作。就好像我们每个人都将成为老板。有些人因机器将比我们更聪明而感到威胁。但我们应该因此感到自己更强大了。它们将为我们工作,不是吗?我不知道您怎么想,但作为一名科学家或企业管理者,你能遇到的最好的事情就是,你雇佣的学生、工程师或者为你工作的人比你更聪明。那才是理想状况。你不应为此感到威胁,而应感到获得了助力。所以我认为这才是我们应该憧憬的未来:拥有一系列智能助手,在日常生活中帮助你,它们可能比你更聪明。你给它们任务,它们完成任务,也许比你做得更好。这简直太棒了。
现在,这就联系到我想谈的另一点,与上一个关于开源的问题相关,那就是在那个未来,我们与数字世界的大部分互动都将通过AI系统进行。这就是为什么Google现在有些焦虑,因为他们知道未来没人会再用传统搜索引擎了。你只会和你的AI助手对话。所以他们正尝试在Google内部试验这个。这可能会通过眼镜实现,他们也意识到可能必须制造这种眼镜——他们几年前就意识到了这点。所以我们在这方面有一定先发优势。但这确实是未来将要发生的。我们将一直拥有这些AI助手。而且,我们获取信息的方式也将被它们所塑造。
现在,试想一下,作为世界任何地方的公民,你不会希望自己获取信息的主要渠道被美国西海岸或中国的少数几家公司构建的AI助手所垄断。你需要高度多样化的AI助手:首先,它能说你的母语,无论是某种小众方言还是当地语言。其次,它能理解你的文化、价值体系以及特定倾向,无论是什么。因此,我们需要大量多样化的此类助手,正如我们需要媒体的多样性一样。而且我意识到我正在和一位新闻学教授谈话。那么,我说得对吗?
关于开放基础模型的重要性,事实上,我认为这正是我乐于见到的:互联网以及接下来的AI所能做的,就是打破大众媒体的固有结构,在更符合人性的层面上重新开放媒体。AI让我们更贴近人性,我希望如此。我也希望。所以,以目前的技术来看,实现此目标的唯一途径是,那些致力于构建具有文化多样性等特点的助手的人们,能够用上强大的开源基础模型,因为他们不太可能拥有训练自有模型的资源。我们需要能说世界上所有语言、理解所有价值体系,并且能体现各种可以想见的文化及政治倾向的模型。未来将会有成千上万种这样的模型供我们选择,它们将由世界各地的小型机构构建,并且必须构建在由像Meta这样的大公司或某个国际联盟训练的基础模型之上。
我所预见的市场演变,类似于90年代末或21世纪初互联网软件基础设施所经历的变革。那时,在互联网早期,有Microsoft、HP、IBM等公司试图主导并提供互联网的软硬件基础设施,它们各自推广其版本的Unix或WindowsNT、自家的网络服务器、机架等等。而所有这些,最终都被Linux和通用硬件彻底取代了。之所以被取代,是因为运行Linux这样的平台软件,它更便于移植、更可靠、更安全、成本更低,各方面都表现更优。所以,Google是最早采用这种方式的公司之一,即在通用硬件和开源操作系统上构建基础设施。Meta当然也完全一样。如今,所有公司都在这样做,甚至包括Microsoft。所以我认为市场将会施加类似的压力,推动那些AI基础模型走向开放和免费,因为它是一种基础设施,正如互联网的基础设施一样。
关于本期访谈
访谈发布时间:2025年4月10日
原视频地址:https ://youtu.be/BytuEqzQH1U?si=U5cFPKJIXmu-mOfC
阅读最新前沿科技趋势报告,请访问欧米伽研究所的“未来知识库”
https ://wx.zsxq.com/group/454854145828
未来知识库是“欧米伽未来研究所”建立的在线知识库平台,收藏的资料范围包括人工智能、脑科学、互联网、超级智能,数智大脑、能源、军事、经济、人类风险等等领域的前沿进展与未来趋势。目前拥有超过8000篇重要资料。每周更新不少于100篇世界范围最新研究资料。欢迎扫描二维码或访问https ://wx.zsxq.com/group/454854145828进入。
截止到3月31日”未来知识库”精选的百部前沿科技趋势报告
(加入未来知识库,全部资料免费阅读和下载)
牛津未来研究院《将人工智能安全视为全球公共产品的影响、挑战与研究重点》
麦肯锡:超级智能机构:赋能人们释放人工智能的全部潜力
AAAI2025关于人工智能研究未来研究报告
斯坦福:2025斯坦福新兴技术评论:十项关键技术及其政策影响分析报告(191页)
壳牌:2025能源安全远景报告:能源与人工智能(57页)
盖洛普&牛津幸福研究中心:2025年世界幸福报告(260页)
Schwab:2025未来共生:以集体社会创新破解重大社会挑战研究报告(36页)
IMD:2024年全球数字竞争力排名报告:跨越数字鸿沟人才培养与数字法治是关键(214页)
DS系列专题:DeepSeek技术溯源及前沿探索,50页ppt
联合国人居署:2024全球城市负责任人工智能评估报告:利用AI构建以人为本的智慧城市(86页)
TechUK:2025全球复杂多变背景下的英国科技产业:战略韧性与增长路径研究报告(52页)
NAVEXGlobal:2024年十大风险与合规趋势报告(42页)
《具身物理交互在机器人-机器人及机器人-人协作中的应用》122页
2025-2035年人形机器人发展趋势报告53页
EvaluatePharma:2024年全球生物制药行业展望报告:增长驱动力分析(29页)
【AAAI2025教程】基础模型与具身智能体的交汇,350页ppt
Tracxn:2025全球飞行汽车行业市场研究报告(45页)
谷歌:2024人工智能短跑选手(AISprinters):捕捉新兴市场AI经济机遇报告(39页)
【斯坦福博士论文】构建类人化具身智能体:从人类行为中学习
《基于传感器的机器学习车辆分类》最新170页
美国安全与新兴技术中心:2025CSET对美国人工智能行动计划的建议(18页)
罗兰贝格:2024人形机器人的崛起:从科幻到现实:如何参与潜在变革研究报告(11页)
兰德公司:2025从研究到现实:NHS的研究和创新是实现十年计划的关键报告(209页)
康桥汇世(CambridgeAssociates):2025年全球经济展望报告(44页)
国际能源署:2025迈向核能新时代
麦肯锡:人工智能现状,组织如何重塑自身以获取价值
威立(Wiley):2025全球科研人员人工智能研究报告(38页)
牛津经济研究院:2025TikTok对美国就业的量化影响研究报告:470万岗位(14页)
国际能源署(IEA):能效2024研究报告(127页)
Workday:2025发挥人类潜能:人工智能(AI)技能革命研究报告(20页)
CertiK:Hack3D:2024年Web3.0安全报告(28页)
世界经济论坛:工业制造中的前沿技术:人工智能代理的崛起》报告
迈向推理时代:大型语言模型的长链推理研究综述
波士顿咨询:2025亚太地区生成式AI的崛起研究报告:从技术追赶者到全球领导者的跨越(15页)
安联(Allianz):2025新势力崛起:全球芯片战争与半导体产业格局重构研究报告(33页)
IMT:2025具身智能(EmbodiedAI)概念、核心要素及未来进展:趋势与挑战研究报告(25页)
IEEE:2025具身智能(EmbodiedAI)综述:从模拟器到研究任务的调查分析报告(15页)
CCAV:2025当AI接管方向盘:自动驾驶场景下的人机交互认知重构、变革及对策研究报告(124页)
《强化学习自我博弈方法在兵棋推演分析与开发中的应用》最新132页
《面向科学发现的智能体人工智能:进展、挑战与未来方向综述》
全国机器人标准化技术委员会:人形机器人标准化白皮书(2024版)(96页)
美国国家科学委员会(NSB):2024年研究与发展-美国趋势及国际比较(51页)
艾昆纬(IQVIA):2025骨科手术机器人技术的崛起白皮书:创新及未来方向(17页)
NPL&Beauhurst:2025英国量子产业洞察报告:私人和公共投资的作用(25页)
IEAPVPS:2024光伏系统经济与技术关键绩效指标(KPI)使用最佳实践指南(65页)
AGI智能时代:2025让DeepSeek更有趣更有深度的思考研究分析报告(24页)
2025军事领域人工智能应用场景、国内外军事人工智能发展现状及未来趋势分析报告(37页)
华为:2025鸿蒙生态应用开发白皮书(133页
《超级智能战略研究报告》
中美技术差距分析报告2025
欧洲量子产业联盟(QuIC):2024年全球量子技术专利态势分析白皮书(34页)
美国能源部:2021超级高铁技术(Hyperloop)对电网和交通能源的影响研究报告(60页)
罗马大学:2025超级高铁(Hyperloop):第五种新型交通方式-技术研发进展、优势及局限性研究报告(72页)
兰德公司:2025灾难性网络风险保险研究报告:市场趋势与政策选择(93页)
GTI:2024先进感知技术白皮书(36页)
AAAI:2025人工智能研究的未来报告:17大关键议题(88页)
安联Allianz2025新势力崛起全球芯片战争与半导体产业格局重构研究报告
威达信:2025全球洪水风险研究报告:现状、趋势及应对措施(22页)
兰德公司:迈向人工智能治理研究报告:2024EqualAI峰会洞察及建议(19页)
哈佛商业评论:2025人工智能时代下的现代软件开发实践报告(12页)
德安华:全球航空航天、国防及政府服务研究报告:2024年回顾及2025年展望(27页)
奥雅纳:2024塑造超级高铁(Hyperloop)的未来:监管如何推动发展与创新研究报告(28页)
HSOAC:2025美国新兴技术与风险评估报告:太空领域和关键基础设施(24页)
Dealroom:2025欧洲经济与科技创新发展态势、挑战及策略研究报告(76页)
《无人机辅助的天空地一体化网络:学习算法技术综述》
谷歌云(GoogleCloud):2025年AI商业趋势白皮书(49页)
《新兴技术与风险分析:太空领域与关键基础设施》最新报告
150页!《DeepSeek大模型生态报告》
军事人工智能行业研究报告:技术奇点驱动应用加速智能化重塑现代战争形态-250309(40页)
真格基金:2024美国独角兽观察报告(56页)
璞跃(PlugandPlay):2025未来商业研究报告:六大趋势分析(67页)
国际电工委员会(IEC):2025智能水电技术与市场展望报告(90页)
RWS:2025智驭AI冲击波:人机协作的未来研究报告(39页)
国际电工委员会(IEC):2025智能水电技术与市场展望报告(90页)
RWS:2025智驭AI冲击波:人机协作的未来研究报告(39页)
未来今日研究所2025年科技趋势报告第18版1000页
模拟真实世界:多模态生成模型的统一综述
中国信息协会低空经济分会:低空经济发展报告(2024-2025)(117页)
浙江大学:2025语言解码双生花:人类经验与AI算法的镜像之旅(42页)
人形机器人行业:由“外”到“内”智能革命-250306(51页)
大成:2025年全球人工智能趋势报告:关键法律问题(28页)
北京大学:2025年DeepSeek原理和落地应用报告(57页)
欧盟委员会人工智能与未来工作研究报告
加州大学伯克利分校:面向科学发现的多模态基础模型:在化学、材料和生物学中的应用
电子行业:从柔性传感到人形机器人触觉革命-250226(35页)
RT轨道交通:2024年中国城市轨道交通市场数据报告(188页)
FastMoss:2024年度TikTok生态发展白皮书(122页)
CheckPoint:2025年网络安全报告-主要威胁、新兴趋势和CISO建议(57页)
【AAAI2025教程】评估大型语言模型:挑战与方法,199页ppt
《21世纪美国的主导地位:核聚变》最新报告
沃尔特基金会(VoltaFoundation):2024年全球电池行业年度报告(518页)
斯坦福:2025斯坦福新兴技术评论:十项关键技术及其政策影响分析报告(191页)
国际科学理事会:2025为人工智能做好国家研究生态系统的准备-2025年战略与进展报告(英文版)(118页)
光子盒:2025全球量子计算产业发展展望报告(184页)
奥纬论坛:2025塑造未来的城市研究报告:全球1500个城市的商业吸引力指数排名(124页)
FutureMatters:2024新兴技术与经济韧性:日本未来发展路径前瞻报告(17页)
《人类与人工智能协作的科学与艺术》284页博士论文
《论多智能体决策的复杂性:从博弈学习到部分监控》115页
《2025年技术展望》56页slides
大语言模型在多智能体自动驾驶系统中的应用:近期进展综述
【牛津大学博士论文】不确定性量化与因果考量在非策略决策制定中的应用
皮尤研究中心:2024美国民众对气候变化及应对政策的态度调研报告:气候政策对美国经济影响的多元观点审视(28页)
空间计算行业深度:发展趋势、关键技术、行业应用及相关公司深度梳理-250224(33页)
Gartner:2025网络安全中的AI:明确战略方向研究报告(16页)
北京大学:2025年DeepSeek系列报告-提示词工程和落地场景(86页)
北京大学:2025年DeepSeek系列报告-DeepSeek与AIGC应用(99页)
CIC工信安全:2024全球人工智能立法的主要模式、各国实践及发展趋势研究报告(42页)
中科闻歌:2025年人工智能技术发展与应用探索报告(61页)
AGI智能时代:2025年Grok-3大模型:技术突破与未来展望报告(28页)
上下滑动查看更多