扎克伯格最新专访:AI 会在知识工作和编程领域,引发一场巨大的革命


扎克伯格最新专访:AI 会在知识工作和编程领域,引发一场巨大的革命

仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接

来源:亚布力企业家论坛CEF
责编:许加林
排版:王紫薇
近日,Meta首席执行官马克·扎克伯格接受了媒体采访,全程信息量满满。访谈中,扎克伯格谈到了Meta如何看待下一步AI发展格局,并回应了外界认为“DeepSeek吊打Meta”的质疑。
他表示,通过比较Llama4模型与DeepSeek的能力可知,尽管DeepSeek可能在特定领域取得了显著进展,但Llama4模型能够提供更高的效率和更广泛的功能。
以下为采访内容(有删节):
马克·扎克伯格:在我看来,世界会变得更加有趣、甚至有些奇特。根据我的经验,如果你觉得别人做的事情不好,但他们自己却认为很有价值,那么通常是他们对,你错了。
主持人Patel:我们似乎正在消除技术利用奖励机制来完全操纵我们的所有障碍。
马克·扎克伯格:我们正在努力构建能推进Llama研究的编码代理。我估计在未来12到18个月内,我们将达到一个阶段,届时这些研发工作所需的大部分代码都将由AI编写。我倾向于认为,至少在可预见的未来,这反而会增加对人类工作的需求,而非减少。如果你将提供服务的成本降至原来的十分之一,那么现在去做这件事实际上可能是有意义的。
主持人Patel:你上次来的时候,发布了Llama3,现在你发布的Llama4,相比前者而言,后者有什么新进展?有哪些令人兴奋的地方?发生了什么变化?
马克·扎克伯格:这个领域变化太快了。我觉得自上次我们谈话以来,确实发生了很多变化。MetaAI现在每月用户接近10亿。这太惊人了。我认为今年将是非常关键的一年,尤其是随着我们开始构建个性化循环——这项工作我们才刚刚起步。这种个性化不仅源于算法对你的兴趣、信息流和个人资料的理解,还包括你的社交关系信息以及你与AI的交互内容。我认为这将是下一个激动人心的发展方向。因此我们在这方面投入巨大。
模型研发方面也在不断取得令人瞩目的进展。我对Llama4的首批发布感到非常满意。我们宣布了四个模型,并已发布了前两个:Scout和Maverick。它们属于中等规模,或者说是中小型模型。实际上,最受欢迎的Llama3模型是8B参数版本。我们也会在Llama4系列中推出一个类似规模的模型,内部代号是’LittleLlama’,可能会在未来几个月内发布。
但Scout和Maverick都非常出色。它们是目前所有模型中性价比最高的,原生支持多模态,效率极高,可以在单台主机上运行。它们的设计目标是为我们内部构建的许多应用场景提供高效和低延迟的服务。这正是我们一贯的做法:先构建自己需要的东西,然后将其开源,让其他人也能从中受益。我对此感到兴奋。
我也对即将推出的Behemoth模型充满期待。这将是我们的首个前沿模型(frontiermodel),参数超过2万亿。正如其名,它是个庞然大物。我们正在探索如何让它对人们真正有用。它实在太大了,以至于我们需要构建大量基础设施才能自行完成后期训练(post-training)。
我们正在思考,普通开发者如何才能利用这样的模型?以及如何通过它来蒸馏(distill)出适合实际运行的、规模更合理的模型?毕竟,你显然不希望在消费级产品中直接运行如此庞大的模型。总之,还有很多工作要做。
就像去年Llama3的情况一样,最初的发布令人兴奋,之后我们在年内不断迭代。Llama3.1是我们发布405B模型的时候,Llama3.2则加入了完整的的多模态能力。今年我们基本上也有类似的路线图。所以,有很多事情正在推进中。
主持人Patel:我很想听更多关于它的信息。有一种看法认为,在过去一年里,最顶尖的闭源模型和最顶尖的开源模型之间的差距有所扩大。我知道Llama4的完整系列尚未发布,但Llama4Maverick在ChatbotArena上排名第35位。而且在许多主流基准测试中,似乎像GPT-4oMini或Gemini1.5Flash这样的同级别模型正在击败Maverick。你对此有何看法?
马克·扎克伯格:嗯,有几点看法。实际上,我认为今年对开源来说是非常好的一年。回顾去年,我们通过Llama所做的工作可以说是当时唯一真正具有突破性创新的开源模型。而现在,这个领域已经涌现出许多优秀的开源模型。我认为,‘开源模型将普遍超越闭源模型,成为最常用的模型’这一预测,总体上正在成为现实。
我认为一个令人惊喜的现象是,这不仅仅是Llama一家的功劳。现在有很多优秀的(开源)模型涌现,这非常令人鼓舞。还有推理(reasoning)能力的现象,你刚才提到的一些模型(可能指GPT-4o或类似模型)就体现了这一点。我确实认为正在出现一种专业化趋势。如果你需要一个在数学或编码方面表现最佳的模型,那么那些‘推理型’模型——它们能够花费更多的推理时间来获得更高的智能——就提供了一种非常有吸引力的范式。
不过,针对我们关注的许多应用场景,延迟和性价比实际上是设计消费级产品时更重要的考量。我们也在构建一个Llama4的推理版本,将在未来某个时候发布。对于许多应用而言,低延迟和高性价比实际上是设计消费级产品时更重要的属性。人们通常不希望等待半分多钟才得到模型的答案;如果能在半秒内提供一个足够好的答案,那就很理想了。这种权衡非常重要,我认为这两个发展方向(高智能推理和快速响应)最终都会占据一席之地。
我对于未来将推理能力更紧密地集成到核心语言模型中持乐观态度。我认为谷歌在最近的一些Gemini模型中就采取了类似的方向,看起来很有前景。但是,这个领域还会有许多不同的发展路径。你还提到了ChatbotArena,我觉得这很有趣,它恰好关联到我们面临的一个挑战:如何通过基准测试来确定哪个模型最适合哪些任务。
在过去一年里,我们尝试做的主要是将我们的模型评估更多地锚定在MetaAI产品的‘北极星’用户场景上。像开源基准测试和LMSysChatbotArena这类特定工具的问题在于,它们往往偏重于一组非常特定的使用场景,这些场景不一定能反映普通用户实际如何使用你的产品。它们试图衡量的指标组合,通常也与用户在特定产品中真正关心的东西不完全一致。
因此我们发现,过度优化这些外部基准测试有时会让我们误入歧途,并不能带来最高质量的产品,也无法在MetaAI中获得最佳的用户量和反馈。所以,我们正努力将我们的‘北极星’指标锚定在用户反馈给我们的信息、他们明确表达的需求,以及他们使用我们产品体验所揭示的偏好上。
因此,有时这些外部基准和我们的目标并不完全一致。而且我认为很多基准测试非常容易被‘刷分’(gamingthebenchmark)。例如在Arena上,你会看到像Claude3.5Sonnet这样的模型。它是一个很棒的模型,但排名并不在最顶尖。我们的团队可以相对容易地调整出一个Llama4Maverick的版本,使其在Arena上排名非常靠前。但我们发布的版本是‘纯净’的基础模型,并未针对Arena进行优化,所以排名靠后。因此,我认为需要谨慎看待一些基准测试结果,我们主要还是参考我们内部的指标。
主持人Patel:关于产品本身,你觉得是否存在某些基准,能够真正抓住你所说的‘用户价值北极星’,从而可以在不同模型间进行客观比较?比如,你会设定目标说‘Llama4必须在这个特定基准上名列前茅’吗?
马克·扎克伯格:我们的基准基本上就是MetaAI的用户价值。但用这个基准你无法直接比较其他模型。也许我们可以做到,比如我们可以在内部运行其他模型进行对比测试。我认为开源的优势之一就在于,你拥有一个活跃的社区,他们能帮助指出模型的优点和不足。
但我认为目前的现实是,所有这些模型都在针对略微不同的目标组合进行优化。虽然每个人都在努力朝同一个大方向前进。我认为所有领先的实验室都在尝试创造通用人工智能(AGI)或超级智能(ASI),不管你怎么称呼它。其愿景是,AI能引领我们进入一个富足的世界,每个人都拥有超人般的工具来创造任何他们想要的东西。这将极大地赋能个体,并创造巨大的经济价值。我认为无论具体定义如何,这都是许多实验室的共同目标。
然而,毫无疑问,不同的团队确实在针对不同的方面进行优化。我认为Anthropic的团队确实非常专注于编码以及围绕编码构建的智能代理(agent)。而OpenAI的团队,我认为最近则更侧重于推理能力。同时,我认为还有一个领域——如果让我猜测的话——最终可能会得到最广泛的应用,那就是快速、极其自然的交互方式,以及原生的多模态能力。这种能力将融入你的日常生活,融入你希望与之交互的各种场景。
我想你已经有机会体验我们发布的新版MetaAI应用了。我们在其中加入了一个有趣的功能:全双工(full-duplex)语音交互的演示。这还处于早期阶段,尚未成为应用中的默认语音模型。但它所展现的那种自然对话方式,我认为非常有趣且引人入胜。
我认为,将这种自然的对话能力与恰当的个性化相结合,将带来一种全新的产品体验。在未来几年,我们会习惯于在一天中随时与AI交谈,讨论各种我们关心的事情。比如,你会拿着手机与它对话,在浏览信息流时与它互动。它能提供关于内容的上下文信息,回答你的问题,甚至在你使用消息应用与人交流时提供帮助。
最终,我认为我们会佩戴智能眼镜或其他类型的AI设备,在日常生活中随时随地、无缝地与AI互动。所以我认为这才是真正的‘北极星’——无论什么样的基准,能最终衡量出这种让用户觉得高质量、愿意与之互动的体验,那才是最重要的。
主持人Patel:我有机会体验了Orion和MetaAI应用,其语音模式的流畅度令人印象深刻。关于不同实验室的优化方向,为了更好地理解他们的观点,我认为他们中许多人相信,一旦软件工程和AI研究完全自动化,就能引发一场智能爆炸。届时,你就能拥有数百万个软件工程师的副本,复现从Llama1到Llama4那样的研究进展。这种规模的改进可能在几周或几个月内完成,而非数年。因此,实现闭环的软件工程师(AI)至关重要,这是抢先达到超级人工智能(ASI)的关键。你怎么看?
马克·扎克伯格:我个人认为这个观点很有说服力。这也是我们大力投入编码工作的原因。我们在Meta内部开发了许多编码代理。因为我们不是企业软件公司,我们主要是为自身需求构建这些工具,目标非常明确。我们并非要构建通用的开发者工具,而是专注于打造能够推动Llama研究进展的编码代理和AI研究代理,这些代理与我们的工具链等深度整合。
我认为这非常重要,最终将成为这项工作的核心部分。我估计未来12到18个月内,我们将达到一个阶段:这些工作中大部分代码将由AI编写。我指的不是像现在已有的那种、在你输入时能补全一小段代码的自动补全功能,而是指那种你给它一个目标,它就能运行测试、改进代码、发现问题,并编写出比团队里顶尖成员更高质量代码的AI。我认为这无疑是其中一个极其重要的方面。
但我不知道这是否就是全貌。我认为这将是一个庞大的产业,也是AI开发模式的重要一环。不过,我认为还有不同的视角值得考量。一种思路是,这是一个极其广阔的领域。我不认为会只有一家公司凭借单一的优化方向就能满足所有人的需求。我认为将有许多不同的实验室在各自的领域取得领先。
有些可能更侧重企业应用或编码,有些则侧重于生产力工具。在AI助手领域,有些会聚焦于社交或娱乐,有些侧重于信息获取或效率提升,还有些则专注于陪伴。还会有许多纯粹有趣和娱乐性的AI应用,它们会出现在你的信息流里。所以,我认为这里有巨大的探索空间。这个领域的迷人之处在于其飞速的发展。
在迈向ASI的未来征程中,有许多共通的基础技术需要发明,但最终需要创造的应用形态是多种多样的。我猜测,我们会开始看到各个团队之间出现更明显的专业化分工。
主持人Patel:让我觉得非常有意思的是,你似乎基本认同智能爆炸以及最终出现超级智能(ASI)这个前提。如果我没理解错的话,那为何还要投入精力去做个人助理这类事情呢?为什么不直接先实现超级智能,再去解决其他问题?
马克·扎克伯格:我认为这只是(发展)飞轮的一个方面。我通常不完全认同(智能)会快速爆发的原因之一是,构建物理基础设施需要时间。你想建一个千兆瓦级的计算集群,就需要不少时间。
NVIDIA需要大量时间来稳定新一代系统。接着还要考虑配套的网络设施。此外,还需要建造厂房、获得审批、确保能源供应——无论是燃气轮机还是绿色能源,都依赖一整套供应链。
我记得上次参与播客时,我们深入讨论了许多现实世界约束和人为时间尺度的因素。当你在技术栈的某个层面取得智能突破时,通常会遇到新的瓶颈。
工程领域向来如此:解决一个瓶颈,便会遇到下一个。系统中的另一个制约因素,或者说影响其良好运行的关键,在于人们的适应、学习以及与系统建立反馈循环的过程。所以我不认为这些系统会像某个东西一经问世就完美无缺,人们也立刻魔法般地知道如何使用它,然后一切就尘埃落定了。
我认为将会发生一种共同进化:人们学习如何更好地使用AI助手,同时AI助手也在学习用户的需求,而开发者则基于这些反馈不断改进AI助手。随着这个过程的推进,你会逐步建立起上下文的基础。一两年后,AI助手或许能引用你几年前谈论过的事情,这非常酷。但如果你第一天就推出完美的产品,反而无法实现这一点。没有过去两年的积累,AI就无从参考你之前的讨论。从这个角度看,我认为智能确实在经历巨大的增长。
用户与AI助手的互动、学习和反馈循环的采纳呈现出陡峭的增长曲线,这加速了发展。但同时,供应链、基础设施建设和监管框架的完善——这些扩展物理现实所必需的要素——也在同步进行。我认为在某种程度上,所有这些要素都是不可或缺的,并非只有编码那一个方面。
举一个我个人觉得很有意思的例子:排名实验的自动化。这可以追溯到几年前我们在广告团队做的一个项目。在一个受限环境中,我们分析公司历史上所有的实验数据,看哪些有效、哪些无效及其结果,目标是为测试生成新的假设,以提升广告系统性能。
我们发现,由于需要验证的假设数量庞大,运行测试所需的计算能力成了瓶颈。即便有广告团队成员参与,我们能想到的优秀测试想法,也远超我们拥有的算力或能执行这些想法的人手所能负荷的程度。例如,尽管我们有35亿用户,但每个测试仍需达到统计显著性,这往往需要成千上万甚至数百万用户参与。测试的吞吐量是有限的,我们目前的团队已经触及了这个上限。
以至于我们实际上无法测试所有想测试的想法。因此,仅仅能进行更多测试本身,并不一定能带来额外价值。我们需要达到这样一个临界点:AI生成的假设的平均质量,必须超越我们实际能测试的数量所对应的‘最佳假设’,甚至要优于团队中最顶尖成员提出的想法,这样AI才能真正发挥作用,哪怕只是微小的作用。
所以我认为我们会达到那个阶段,而且我认为会很快。但这并不意味着‘哦太好了,这东西能写代码了,一切都将一日千里’。有一些现实的约束条件需要克服。首先,AI需要能胜任工作;其次,需要有足够的计算资源和合适的人员来测试它的产出。
随着时间推移,质量不断提升。我不知道,也许五到十年后,会不会真的没有任何人能提出比AI系统更好的假设?或许吧?到那时,我认为在一个那样的世界里,很可能所有价值都将通过这种方式(AI)创造出来。
主持人Patel:所以,如果你认同(AI自动化研究)这个观点,认为这是智能发展的方向,那么看好Meta的理由就很明显了:你们拥有庞大的分发渠道,并且能利用这些渠道获取对模型训练非常有价值的数据和反馈。你提到MetaAI应用有10亿活跃用户。
马克·扎克伯格:不是指那个独立的应用程序。那个独立应用我们才刚刚推出。我认为对想尝试的人来说,它会很有趣,是一种很酷的体验。我们可以稍后讨论。我们正在其中尝试一些我认为新颖且值得探讨的想法。
我主要指的是集成在我们现有应用中的MetaAI功能。实际上,MetaAI在WhatsApp上的使用量是最大的。WhatsApp主要在美国以外地区流行。虽然我们在美国的WhatsApp用户刚刚突破1亿,但它并非美国主流的即时通讯应用——iMessage才是。
因此,美国用户可能容易低估MetaAI的实际使用规模。这也是为什么那个独立的MetaAI应用如此重要的部分原因。美国市场因多种原因至关重要。虽然WhatsApp是人们使用MetaAI的主要途径,但它在美国并非主流通讯工具。这意味着我们需要另一种方式来打造一流的用户体验,让美国用户更容易接触和使用MetaAI。
主持人Patel:那么,接着刚才的问题,悲观一点来看:如果AI的未来不仅仅是回答问题,而是更多地扮演虚拟同事的角色——比如一个完全自主的程序员或远程工作者——那么,内嵌在WhatsApp里的MetaAI如何能提供相关的训练数据来支撑这种发展呢?这一点似乎并不明朗。在这种情境下,当前谁拥有更广泛的LLM分发渠道,是否还那么重要呢?
马克·扎克伯格:我再说一遍,我认为这些(知识工作AI和消费者AI)将会是不同的事物。就像,如果你回到互联网发展的初期去预测:互联网的主要形态会是什么?是赋能知识工作,还是诞生大型消费者应用?答案是两者都会有,不是吗?你不需要只选一个。当今世界如此庞大而复杂。会有一家公司包揽所有这些(AI应用)吗?我认为通常答案是否定的。
不过,回到你的问题:确实,大多数人不会在WhatsApp里写代码。我也不认为让人们在WhatsApp里写代码会成为一个主流用例。尽管我认为,人们会要求AI完成许多任务,这些任务背后可能需要AI进行编码,即使用户本身并不知晓。但这又是另一回事了。
但是,我们在Meta内部确实有大量员工在编写代码时使用MetaAI。我们内部有一个名为Metamate的工具,它集成了我们正在构建的各种编码和AI研究代理。这形成了它自身的反馈循环,我认为有助于加速这些方面的研发进程。
再说一次,我认为AI的应用将是多方面的。AI几乎肯定会在知识工作和编程领域引发一场巨大的革命。我还认为它将成为下一代搜索技术,成为人们获取信息、处理更复杂信息任务的新方式。
我还认为AI会带来很多乐趣。我相信人们会用它来娱乐。互联网的很大一部分都与Meme(迷因)和幽默有关,不是吗?我们拥有触手可及的强大技术,但想想人类有多少精力是投入到娱乐自身、进行创作、推动文化发展,以及用幽默的方式解读我们观察到的文化现象上——这既有点不可思议,又非常有趣。我认为未来几乎肯定也是如此。看看Instagram和Facebook等平台的发展历程就知道了。
回想10年、15年甚至20年前,内容主要是文本。后来,我们都有了带摄像头的手机,内容重心转向了图片。随着移动网络速度提升,在手机上流畅观看视频成为可能,过去十年,内容的主流又转向了视频。目前,用户在Facebook和Instagram等平台上花费的大部分时间都在观看视频。
但是,我怀疑五年后,我们是否还会仅仅是被动地消费视频。我相信未来将更具互动性。想象一下,你在信息流中刷到一个看起来像是视频Reel的内容,但它允许互动。你可以和它对话,它可能会根据你的参与做出回应或改变行为。甚至可能让你像玩游戏一样沉浸其中并与之互动。这种演变将大量依赖人工智能。
总之,未来媒体消费的可能性是无限的。我们对此雄心勃勃,并正积极探索其中的一些方向。但我认为,没有任何一家公司能够独自实现所有这些构想。
主持人Patel:好的,关于AI生成内容或AI互动这一点:现在已经有人与AI治疗师、AI朋友建立了有意义的关系,甚至可能发展出更深层的联系。随着AI变得更独特、更个性化、更智能、更自然有趣,这种趋势只会加强。我们该如何确保人们与AI建立的关系是健康的呢?
马克·扎克伯格:我知道有很多问题,只有在实际观察到用户行为后才能真正找到答案。所以,最重要的是持续提问,并在每一步都关注这个问题。但如果过于先入为主地判定某些行为不好,往往会扼杀其潜在价值。人们只会使用对他们有价值的东西。我设计产品时的一个核心原则是:相信用户是聪明的,他们知道什么对自己的生活有价值。
当然,产品中偶尔会出现负面情况,你需要确保产品设计能最大限度地减少这些。但是,当你认为用户做的某件事不好,而用户却认为这件事非常有价值时,根据我的经验,通常是用户对,而你错了。你很可能只是还没找到一个合适的框架来理解,为什么他们所做的事情对他们的生活有价值、有帮助。这大致就是我思考这类问题的主要方式。
我确实认为人们会利用AI来处理许多社交相关的任务。目前,我们观察到人们使用AI的一个主要场景是:演练那些他们需要与他人进行的、比较棘手的对话。比如,有人可能会说:‘我和女朋友之间遇到了这个问题’,或者‘我需要和老板进行一次棘手的谈话’。他们常常向AI寻求建议,学习如何应对这类对话,这可能非常有帮助。
随着个性化循环的运转,AI会越来越了解你,我认为这将变得极具吸引力。
根据我在社交媒体领域多年的经验,有一个数据一直让我觉得很引人深思。普通美国人认为自己拥有的‘朋友’数量,平均不到三个。而普通人实际渴望的友谊连接远不止于此,我认为大约需要15个甚至更多。当然,到某个程度可能会觉得‘好吧,我太忙了,没精力应付更多人了’。但普遍来说,人们渴望比现状拥有更多的连接。
因此,人们自然会问:AI社交会取代面对面或现实生活中的连接吗?我的直觉答案是,可能不会。我认为,如果条件允许,真实的物理连接在很多方面都更优越。但现实是,许多人确实缺乏连接,并且常常感到比他们期望的更孤独。
我认为,许多如今可能带有些许污名化的行为,随着时间推移,社会将找到合适的语言来阐释它们的价值。我们会理解为什么人们参与其中是理性的,以及这些互动如何为他们的生活增添价值。不过,我也承认这个领域尚处于非常早期的阶段。
我的意思是,目前只有少数公司在开发虚拟治疗师或虚拟女友这类服务,一切都还非常初步。这些技术中的‘具身性’(Embodiment)还很弱。很多时候,你打开应用,看到的只是一个治疗师或对话对象的静态图像。有时会有一些非常基础的动画,但远非真正的‘具身’呈现。你已经看到了我们在RealityLabs正在做的事情,在那里,你可以拥有栩栩如生、宛如真人的化身。我认为这代表了未来。未来,你将能够进行不间断的视频聊天,AI也能参与进来。手势同样至关重要,在现实交流中,超过一半的信息传递并非来自言语本身,而是来自所有的非语言线索。
主持人Patel:没错,非语言的表达。前几天我有机会体验了Orion,我觉得它确实令人印象深刻。我对这项技术整体上持乐观态度,因为大体上,如你所言,我对人们的选择持开放态度,倾向于相信这对他们有益。
不过,我确实不太确定,使用TikTok的人是否会对他们花费的时间感到满意。因此,我(对AR/VR技术)整体上仍持乐观态度,因为如果我们要生活在通用人工智能(AGI)的未来世界,就需要借助这类工具提升自身能力,才能跟上时代的步伐。
总而言之,如果吉卜力工作室的动画能随处可见,世界会增添更多美好。但我担心的是,你们团队向我展示的一个主要应用场景是:我坐在早餐桌旁,视线边缘却不停滚动播放着Reels短视频。
也许在未来,我的AI女友就在屏幕的另一边。我担心的是,我们正在消除所有抵抗,让技术畅通无阻地侵入我们的生活并获得即时满足。我们如何确保这不会在五年后发生?
马克·扎克伯格:我认为,人们对于自己想要什么,通常有相当清晰的感知。你体验到的那项功能只是一个演示,旨在展示多任务处理和全息影像技术。所以,我同意,未来不应该是让各种信息总在你的眼角余光处争夺注意力。我想人们并不会喜欢那样。这正是我们设计眼镜时极其关注的一点:眼镜首先要做到不干扰视线,同时它本身要是一副好眼镜。
顺便提一下,我认为这也是Ray-BanMeta智能眼镜如此成功的部分原因。它非常适合听音乐、接打电话、拍摄照片和视频,而且AI在你需要时随时待命。而当你不需要它时,它就是一副外观出色、人们乐于佩戴的普通眼镜,完全不碍事。我预感,这将是未来增强现实(AR)领域一项非常重要的设计原则。
我认为关键在于,数字世界对我们的生活已如此重要,但我们访问它的方式却仍局限于实体屏幕,这简直不可思议。无论是手机、电脑还是大电视——这些都是笨重的物理设备。技术发展至今,似乎已到了物理世界与数字世界应完全融合的阶段,而全息叠加层正是实现这一融合的关键。
我同意,围绕这项技术的一个核心设计原则,将是促进人际互动,并将数字内容无缝融入其中。例如,当我想向你展示某样东西时,我可以凭空投射出一个屏幕,我们可以直接互动,而且它可以是3D的。我们甚至可以一起玩牌,我们两人在此处进行物理互动,而远方的第三位朋友则通过全息投影加入进来,一同参与。
然而,在这样的世界里,人们会希望避免自己的物理空间变得杂乱无章。正如杂乱的物理空间会让人心力交瘁,我不认为人们会希望他们的数字空间也同样混乱不堪。这更像是一个审美偏好问题,也是我们需要共同建立的一种规范。但我相信,这是我们前进过程中必须考量的重要因素。
马克·扎克伯格:我觉得这确实是一场激烈的竞争。我们看到产业政策正在切实发挥作用,例如中国正在大力建设电力基础设施。因此,我认为美国确实需要专注于简化数据中心建设和能源生产的流程,否则我们将处于非常不利的境地。
我们与DeepSeek团队就他们令人印象深刻的底层优化进行了广泛交流。这些优化工作确实非常出色。但这引出了一个问题:为什么DeepSeek必须付出如此努力进行优化,而美国的实验室则不需要?答案在于,他们使用的是性能受限的芯片——这是英伟达因出口管制而被允许在中国销售的型号。因此,DeepSeek不得不投入大量时间和资源进行底层基础设施优化,这是美国实验室无需面对的挑战。
目前,虽然DeepSeek在文本处理方面取得了不错的成果,但值得注意的是,他们完全专注于文本领域。他们构建的基础设施令人印象深刻,文本处理能力也值得称赞。然而,行业趋势已经转变,现在每一个新发布的主流大模型都是多模态的,能够处理图像和语音。问题是:DeepSeek为何没有扩展到这些多模态能力?我认为这并非能力不足,而是因为他们不得不将精力集中在基础设施优化上,以应对出口管制带来的挑战。
在比较Llama4和DeepSeek这类模型时,(某些方面)具体原因可能尚不完全清晰,因为我们的推理模型还未发布。然而,尽管我们的模型规模更小,但在DeepSeek正在探索的技术领域,我们似乎达到了同等水平。这种更小的模型尺寸带来了更高的效率,因为Llama在文本处理上的单位智能成本(costperunitofintelligence)更低。此外,在多模态能力方面,我们实际上处于领先地位,而DeepSeek的产品目前尚不具备这些功能。
总而言之,Llama4模型与DeepSeek能力的比较表明,尽管DeepSeek可能在特定领域取得了显著进展,但我们的模型能够提供更高的效率和更广泛的功能,尤其是在多模态应用场景下。他们(DeepSeek)做得不错,但我认为,总的来说,人们会更倾向于使用Llama4模型。但我认为这里有一个有趣的现象:他们显然是一个优秀的团队,正在做出成果。你提到的电力供应、计算能力和芯片获取等问题确实切中要害,因为我认为你所观察到的各个实验室的成果和表现,在某种程度上正是这些因素的下游结果。
主持人Patel:SamAltman最近发推说OpenAI将发布一个开源的Soda推理模型。推文的部分内容似乎是说,他们不会做一些奇怪的限制,比如声称只有月活用户少于7亿才能使用它。DeepSeek使用MIT许可证,而Llama的许可证则有一些附加条件,比如要求注明“BuiltwithLlama”,并且对月活跃用户超过7亿的公司有特殊要求。你如何看待Llama的许可证?对开发者而言,它是否过于严苛了?
马克·扎克伯格:要知道,我们基本上是开源大语言模型(LLM)领域的开拓者。所以,我不认为这个许可证算得上严苛。当我们开始推动开源时,业内曾有过巨大争议:这样做是否合理?能否通过开源构建出安全可信赖的东西?开源能否具备足够的竞争力,从而获得关注?
基本上,在回应这些质疑的过程中,Meta的许多团队付出了巨大努力,当然业内也有其他贡献者,但Llama模型确实是打破整个开源AI僵局的关键。我们非常关注的一点是,既然我们投入了如此巨大的资源,那么至少,当像微软、亚马逊、谷歌这样的大型云服务商想要转售我们的模型时,我们应该有机会在他们行动之前与他们进行沟通。
我们制定这个许可证,目标并非阻止人们使用模型。我们只是觉得,如果你是像上述这些公司(或者苹果)那样规模的企业,那么请先来和我们谈谈你的计划,让我们找到一种富有成效的合作方式。所以我认为这在通常情况下是合理的。
当然,如果未来整个开源行业的发展方向改变,涌现出许多其他优秀的替代品,并且Llama许可证最终成了阻碍人们使用它的原因,那么我们或许不得不重新评估这一策略,届时再看如何调整。但我认为我们还没有到那一步。实际上,我们还没遇到有公司找上门来说:‘我们不想用Llama,因为你们的许可证规定,用户达到7亿就必须和你们谈。’
所以,至少到目前为止,这类声音更多是来自开源纯粹主义者,他们会质疑:这个开源模型是否足够‘纯粹’?我认为这种争论自开源诞生之初就存在了,比如围绕GPL许可证和其他一些协议的讨论。争论的核心在于:是否所有基于开源项目构建的东西都必须同样开源?还是说人们可以自由获取并在不同场景下以不同方式使用?我相信围绕这个问题的争论会持续下去。但是,当你投入了数十亿美元来训练这些模型,要求那些规模庞大、与我们体量相当、并且完全有能力与我们建立合作关系的公司,在商业化使用之前先与我们沟通一下,这似乎是相当合理的要求。
主持人Patel:如果事实证明其他模型同样出色,并且开源模型生态繁荣,那么你们的部分使命(指推动开源)是否就算完成了?比如说,如果其他模型在编码方面表现更优,会不会出现这种情况:Meta会说‘看,开源生态系统很健康,竞争充分,我们很乐意采用其他模型——无论是用于Meta内部的软件工程,还是部署到我们的应用程序中’?我们并非一定要基于Llama来构建一切。是这样吗?
马克·扎克伯格:我们构建自己的大模型,是因为我们想精确地打造出我们真正需要的东西。目前世界上还没有其他模型能完全满足我们的特定需求。即使是开源模型,你可以拿来进行微调,但你仍然受限于其既有的模型架构。不同的模型在规模上做了不同的权衡,这直接影响延迟和推理成本。对于我们这样运营规模的公司来说,这些因素至关重要。
例如,我们将LlamaScout和Maverick模型设计成特定规模,是有具体原因的。我们需要它们能在特定终端设备上运行,并且我们对延迟有特定要求,尤其是对于正在开发的语音模型。我们希望这些模型能融入我们所做的一切——从智能眼镜到我们所有的应用程序,再到MetaAI应用等等。因此,我认为只有自主构建核心模型,才能真正掌握自己的发展命运。
话虽如此,人工智能将渗透到每家公司业务的方方面面。当我们在构建一个通用大模型时,仍然需要选择优先优化的内部应用场景。这是否意味着,在某些特定场景下,比如某个团队发现Claude更适合构建他们正在使用的开发工具时,我们就不考虑使用它了?当然不是。没问题,那就用Claude。很好。我不认为我们想自我设限、束手束脚。我们正在做很多不同的事情。
你还问到,是否会因为其他人也开始做开源,我们就觉得开源不再那么重要了?
我对此有些担忧。因为你必须思考:对于那些在我们之后才开始涉足开源的参与者,如果当初我们没有引领开源潮流,他们还会选择开源吗?我认为有一部分参与者是看到了开发重心日益向开源倾斜的趋势,才觉得‘哎呀,我们得赶紧搭上这班车,否则就要落后了’。他们原本拥有闭源模型的API,但发现越来越多的开发者对此并不买账。
所以,你现在看到其他一些公司也开始在开源方面有所动作,但目前还不清楚,这对他们而言只是一种策略性尝试,还是像我们一样将其视为根本性的战略方向。Android的发展就是一个很好的例子。Android最初是开源的,但当时几乎没有真正的开源替代品。随着时间的推移,Android变得越来越封闭。
如果你站在我们的角度,你可能会担心:一旦我们停止推动行业向开源方向发展,那些跟进者可能只是为了在当前这个(由我们带动的)方向上与我们竞争而已。他们本身有自己偏好的闭源模式,如果开源这条路不存在,他们会构建什么?肯定不是开源的,对吧?所以我认为我们需要保持警惕,不能仅仅因为看到别人也在做(开源),就假定这种行为会持续下去,并以此来决定我们公司未来的技术构建方向。
主持人Patel:我理解你提到的另一点是,让标准围绕像Llama这样的美国模型来建立,这一点很重要。我只是想理解这背后的逻辑。因为看起来,对于某些类型的网络效应(比如AppleAppStore),其构建方式至关重要。
但似乎,如果你为DeepSeek构建了某种适配层,要切换到Llama4应该相当容易,尤其是在模型代际更迭的时候。例如,Llama3不是混合专家模型(MoE),而Llama4是。所以模型代际之间的架构变化本身就很大。
那么,你为什么认为标准会如此依赖于特定的模型基础呢?我不确定我是否理解了。你的意思是,为什么强调人们要基于Llama(而非其他LLM)来构建,因为这会决定标准的走向?
马克·扎克伯格:当然。我认为这些模型本身就编码了价值观和世界观。我们早期有过一次有趣的经历:我们将一个早期版本的Llama翻译成了法语(或其他某种语言,记不清了)。结果从法国用户那里得到的反馈是,这个模型听起来像一个‘学会了说法语的美国人’,而不像一个地道的法国人。这是什么意思?是它的法语不够流利吗?不是的,它的法语说得很好。只是它看待世界的方式,显得有些‘美国中心’。
我觉得有些微妙的特质会被内嵌到模型中。随着时间的推移和模型日益复杂,它们应该能够更好地体现世界各地的多元价值观。这或许不是一个特别复杂的例子,但我认为它很好地说明了问题所在。我们在测试模型时观察到的一些现象,尤其是来自中国的模型,确实表明它们内含了特定的价值观。这并非仅仅通过微调就能轻易改变,让它符合你的需求;这些内嵌的东西是更深层次的差异。
我认为语言模型——或者说那些内嵌了某种世界观的模型——承载了更多的价值观。推理能力本身,我认为也可能带有某种价值观或思维方式的烙印。但推理模型的一个好处是,它们通常基于可验证的问题(如数学、逻辑)进行训练。如果一个模型在解数学题,你或许就不太需要担心文化偏见的问题。一个在其他文化背景下构建的推理模型,会以某种潜移默化的方式影响你解数学题的可能性,似乎很低。
我认为在编码领域也存在一整套不同的问题,这同样是一个可验证的领域。你需要担心的是,某天一觉醒来,发现一个与某个政府有关联的模型,可能在生成的代码中嵌入了各种后门或漏洞,而该政府相关的情报机构可能会利用这些漏洞。你可能会遇到这种情况:你依赖来自他国的模型来保护或构建系统。然后某天,你突然发现这些系统以一种对方知晓而你未知的方式变得脆弱不堪。或者,模型本身可能在某个时刻暴露出一个后门。这些都是切实存在的风险。
我对研究这个非常感兴趣,因为我认为开源最有趣的事情之一就是模型提炼(distillation)的能力。对大多数人来说,核心价值并非直接拿一个现成的模型——比如Meta构建的某个Llama版本——然后原封不动地在自己的应用程序中运行。那样的话,你的应用程序并无特色。如果你直接用我们的模型,至少也会进行微调,或者尝试将其提炼成一个不同的模型。
当我们开发像Behemoth这样的超大模型时,其全部价值就在于能够捕获这种极高的智能,并将其提炼到一个你实际能运行的、更小的模型中。这就是提炼的魅力所在,也是我认为过去一年(自我们上次交流以来)真正兴起的一项强大技术。它的效果远超多数人的预期:你可以用一个大得多的模型,提取其90%或95%的能力,并将其压缩到一个仅有原模型1/10大小的模型中运行。虽然无法达到100%的性能,但用10%的成本获得95%的能力,在许多场景下都是极具价值的权衡。
另一件有趣的事是,随着开源社区日益多样化,你不仅有Llama,还有其他各种模型,这意味着你可以从多个来源进行提炼。现在你可以说:“好,Llama在这方面很强。也许这个架构很棒,因为它原生支持多模态,更擅长推理,效率也更高。但是,假设另一个模型在编码方面表现更优。”那么,你可以结合这两个模型的优点进行提炼,构建出比任何单一模型都更适合你特定用例的东西。这非常酷。
但你必须解决安全问题,确保提炼过程安全可靠。这是我们投入大量时间研究的领域。我们得出的基本结论是,任何与语言相关的东西都非常棘手,因为其中蕴含了大量的价值观。所以,除非你不在乎最终模型的价值观是什么,否则你可能不希望直接提炼语言世界模型。
至于推理(reasoning)能力,我认为通过将其限制在可验证的领域内,并运行类似代码清理和安全过滤器(如LlamaGuard或我们开源的CodeShield项目)的方式,可以取得很大进展。这些工具能让你整合不同输入到模型中,并确保输入输出的安全性。此外,大量的红队测试(redteaming)至关重要,需要有人或专家来审视:“这个模型在经过提炼后,是否出现了任何我不希望它做的行为?”我认为结合这些技术,可以得到更好的结果。
在可验证的领域内,你或许能够非常安全地进行推理能力的提炼。我对此很有信心,并且我们已经围绕它做了大量研究。但我认为这是一个核心问题:如何做好提炼?因为其中蕴藏着巨大的价值。但同时,我确实认为不同模型之间存在一些根本性的偏见(biases)。
马克·扎克伯格:正如我们之前讨论的,AI会有各种不同的应用,而不同的应用适合不同的商业模式。当你希望为人们提供免费服务时,广告模式非常有效,因为它让用户无需付费即可获得优质服务,成本则由广告来覆盖。
此外,在现代广告系统中,如果做得好,广告甚至可以提升服务的价值。但这需要你擅长排序(ranking)并且拥有足够大的广告库存流动性。如果你的系统里只有五个广告商,无论排序多精准,你可能都无法展示出用户感兴趣的内容。
反之,如果系统里有一百万个广告商,只要你擅长从海量信息中筛选出用户可能感兴趣的内容,就很有可能找到引人注目的广告。所以,我认为广告模式肯定有其用武之地。
但显然,也会有其他商业模式,包括那些成本更高的服务。对于某些高成本服务,提供免费选项甚至没有意义。这种情况一直都存在。社交媒体之所以免费并依赖广告,是有其原因的。但如果你想看Netflix或ESPN这类内容,你就需要付费。
这是可以接受的,因为制作这些内容成本高昂,单靠广告可能无法覆盖成本。所以,用户需要付费才能访问。这样做的代价是用户规模会变小,可能只有数亿人使用,而非数十亿人。这是一种价值交换。
我认为类似的情况也适用于AI。不是每个人都需要一个软件工程师,或者一千个软件工程代理。但如果你确实需要,你可能愿意为此支付数千、数万甚至数十万美元。这说明了需要创造的事物具有多样性。在这个范围内的每个点上都会有相应的商业模式。
对于消费者端,我们肯定希望提供一个免费选项,我相信最终会由广告支持。但同时,我们也希望有一种商业模式,能支持人们使用大量计算资源来完成比免费服务更强大的任务。对于这一点,我相信我们最终会推出一项高级服务。我们在这方面的基本价值观很明确:我们希望为世界上尽可能多的人提供服务。
主持人Patel:您如何同时跟进这么多不同的项目,包括我们今天讨论的这些,以及许多我甚至不知道的项目?作为统管全局的CEO,您的角色范围很广,从亲自指导Llama团队“这是你应该使用的超参数”,到仅仅下达一个指令如“让AI变得更好”。在项目如此繁多的情况下,您认为发挥自身价值、监督所有这些计划的最佳方式是什么?
马克·扎克伯格:我投入大量时间去招募优秀的人才加入团队。这是其中一点。还有很多工作是跨团队协调。比如,你构建了MetaAI,想把它整合到WhatsApp或Instagram中。那么,我就需要让这些团队进行沟通。然后还有很多具体问题,比如:
你想让MetaAI在WhatsApp中的对话体验,是更像WhatsApp的原生对话,还是更像其他类型的AI聊天体验?这些都有不同的表现方式。我认为,关于如何将这些AI功能融入我们现有的所有产品中,有许多有趣的问题需要解答。
我们工作的另一部分涉及推动基础设施建设。如果你想建造一个千兆瓦(gigawatt-scale)级别的计算集群,这对我们构建基础设施的方式会产生深远影响。这也会影响你与正在建设基础设施所在地的各州政府互动的方式。
此外,考虑到世界经济的不确定性,这对公司的财务状况也有影响。我们现在是否应该加倍投资基础设施?如果是,我们公司内部需要做出哪些其他的权衡取舍?这些是其他人难以做出的决策。
最后,我认为还有关于品味和质量的问题。在决定一个产品是否足够好可以发布时,品味和质量是关键考量因素。我认为自己是公司在这方面的把关人,当然,还有许多其他具有良好品味的同事在我们产品的各个方面扮演着过滤器的角色。
AI特别有趣,因为它比其他项目更侧重于研究和模型驱动,而非产品驱动。你不能简单地先设计一个产品,然后再创建一个模型来适配它。相反,你需要先设计模型,确定它能实现哪些功能。这种方法常常会带来涌现(emergent)特性,从而催生出不同的特性和功能。最终,人们想要使用的是最好的模型。
这种对质量的追求,正是我们专注于构建最个性化AI的原因——拥有最好的声音、最高级别的个性化,以及以极低延迟运行的智能体验。这些目标要求我们高效地设计整个系统,这也解释了我们在全双工语音(full-duplexvoice)方面的工作,以及我们为增强个性化所做的努力。这包括从用户与AI的互动中提取有用的记忆,同时确保与Meta其他系统的兼容性。因此,我们会设计具有特定大小和延迟参数的模型来满足这些需求。
马克·扎克伯格:关于这件事最好的解释是什么?我的看法是,他是美国总统。作为一家美国公司,我们的默认立场应该是努力与任何在任政府建立富有成效的关系。我会这样做,就像我们之前也曾试图支持上届政府一样。
我曾公开表达过对前任政府的一些不满,他们基本上没有与我们或更广泛的商界进行互动,坦率地说,我认为这种互动对于在某些事情上取得进展是必要的。如果我们没有对话,并且他们不优先考虑做这些事,我们就无法凝聚起所需的能量。
但从根本上说,很多人想编造一个关于人们将选择哪一方站队的故事。我只是认为,我们正努力创造伟大的事物。我们希望与人们建立富有成效的关系。这就是我的看法。
我猜测大多数其他人也会这么看。但显然,我不能代表他们发言。
主持人Patel:您曾公开谈论过,您如何反思过去在内容审核方面听从政府意见的做法。那么您如何看待人工智能治理?如果人工智能真如我们所想的那样强大,政府必然会介入。在人工智能治理方面,最有效的方法是什么?政府应该考虑哪些方面?
马克·扎克伯格:过去,我可能……我所做的大部分评论,我认为都是在内容审核的背景下。过去十年是一段有趣的旅程。很明显,这是一个历史性的关键时刻。关于在线内容审核,出现了一些新的问题。其中一些促成了富有成效的新系统,例如我们的人工智能系统,它能够检测到试图干预他国选举的国家行为。我认为我们将继续构建这些系统,这是一个积极的发展。
然而,我认为我们尝试的其他一些路径不太成功。例如,事实核查(fact-checking)倡议不如社区笔记(CommunityNotes)有效,因为它不是一个互联网规模的解决方案。事实核查员数量不足,而且人们不信任特定的事实核查员,他们想要一个更强大的系统。所以我相信我们通过社区笔记实现的目标是正确的方向。
我更广泛的观点是,过去,我可能过多地听从了媒体及其批评,或者政府对他们实际上没有管辖权的问题所提出的意见。我们曾试图建立一些系统,让我们不必亲自做出所有的内容审核决定。我认为过去十年的成长过程,一部分是认识到我们是一家有影响力的公司,需要为我们必须做出的决定承担起责任。
我们应该听取人们的反馈,但不应过度听从那些对这些事务没有实际管辖权的人。归根结底,我们有能力做出这些决定,我们需要掌控它们。我认为这个成熟过程有些痛苦,但总体而言,我相信我们现在处于一个更好的位置。
主持人Patel:很好。关税会增加在美国建设数据中心的成本,并将建设转移到欧洲和亚洲吗?
马克·扎克伯格:真的很难预测事情会如何发展。我认为我们可能还处于非常早期的阶段,这使得预测极为困难。
主持人Patel:很难预测。明白了。您一周中效率最高的一个小时通常在做什么?您在那一小时里完成了什么?
马克·扎克伯格:我不知道。每周情况都略有不同。每周效率最高的事情可能不是同一件,否则根据定义,你应该每周花不止一个小时去做那件事。但我确实不知道。
这也是这份工作和这个行业如此有趣的原因之一,因为事情变化太快了。现在的世界与今年年初甚至去年年中相比都大不相同。
我认为自我们上次交流以来,很多事情都取得了显著进展,许多牌局已经揭晓。我们上次交流大约是一年前,对吧?
马克·扎克伯格:是的,效率非常高。假设您之前提到,这些模型到今年年底能达到中级软件工程师的水平。那么,如果软件生产力在两年内提高100倍,会发生什么?我们现在无法构建的哪些东西将成为可能?
马克·扎克伯格:会有哪些东西?这是一个有趣的问题。我认为这次谈话的一个主题是,即将被释放的创造力将是巨大的。
如果你回顾过去100到150年人类社会和经济的整体发展轨迹,基本上是从绝大多数人从事农业、大部分精力用于维持生计,逐渐转变为这种情况所占用的精力越来越少。如今,满足我们基本生理需求所需的人力越来越少。这种转变带来了两个重要影响:一是更多的人参与到创意和文化活动中;二是人们总体上花在工作上的时间减少,花在娱乐和文化上的时间增多。
我认为随着时间的推移,这种趋势几乎肯定会持续下去。这不仅仅是拥有一两年超级强大的软件工程师所带来的暂时现象。随着时间推移,每个人都将能够使用超人般的工具来创造各种不同的事物。因此,我预见到将会出现显著的多样性。其中一部分将用于解决重大难题,例如攻克疾病、推进科学认知,以及开发改善我们生活的技术。但我怀疑,很大一部分将围绕文化、社交活动以及娱乐展开。
我猜想世界会变得更加幽默、古怪和独特,就像过去十年互联网上模因(memes)的演变一样。这种现象为我们的互动增添了一定的丰富性和深度。在某些有趣的方式中,我认为它有助于我们更好地相互联系。
例如,我在网上发现有趣的内容,并将其分享到朋友的群聊中,我相信他们会欣赏这种幽默。如今人们可以制作的媒体,允许表达非常细致和特定的文化观念。我认为这种趋势将持续发展,并有助于社会进步,即使它不直接体现为硬科学的突破或疾病的治愈。
从更宏观的社交媒体视角来看,未来人们显然会投入更多时间参与线上互动。这种参与将是有益的,因为它提供了一个表达多元观点的平台,从而能够促进人与人之间的连接。随着世界日益复杂,我们用来表达复杂思想的文化传播方式(常常借助幽默或简洁的形式)也将不断演进和完善。总而言之,我认为这是一个非常积极的趋势。
关于未来,另一个让我感兴趣的想法是,我倾向于认为,至少在可预见的未来,技术发展反而会增加——而不是减少——社会对劳动力的需求。
诚然,现在人们可以更灵活地选择工作时长,但让我给你举个我们最近讨论过的有趣例子。我们的服务每天有近35亿用户,我们一直在努力解决的一个核心问题是:如何有效地提供客户支持?用户可以发电子邮件,但我们从未真正认真考虑过提供电话客服支持。这或许是免费服务模式带来的一个限制吧?因为单个用户带来的收入并不足以支撑一个能让用户随时致电的客服模式。
而且,要为每天35亿用户提供电话支持,将需要极其庞大的人力——规模堪比世界上最大的呼叫中心。每年可能需要投入100亿甚至200亿美元来支撑这样的人员规模。所以我们从未真正认真考虑过这个方案,因为它在经济上似乎总是不合理的。
然而,随着人工智能日益强大,我们正在接近一个新阶段:人工智能可以处理大部分——尽管不是全部——的客户问题。也许十年后,AI能处理所有问询,但就未来三到五年而言,它将能处理绝大部分问题,就像自动驾驶汽车能在许多路况下行驶,但多数情况下仍无法独立完成全程一样。
人们曾预言卡车司机的工作会因自动驾驶而消失,但实际上,如今卡车司机的岗位数量比大约20年前我们刚开始讨论自动驾驶时还要多。
回到客户支持这个例子上,情况类似。假设人工智能能处理90%的咨询,无法处理的再转接给人工。这意味着,我们无需雇佣能覆盖所有咨询的庞大团队。如果你能将提供这项服务的成本降低到原来的十分之一,那么,提供(包含人工支持的)客服服务在经济上就变得可行,而且还能极大地提升用户体验。
所以,最终的结果是,我实际上认为我们未来可能会雇佣更多的客户支持人员。尽管普遍的看法是,技术进步将自动化许多工作,导致岗位流失,但纵观技术发展的历史,情况往往并非如此。
事实上,即使一项技术能将某个环节的工作量减少90%,其最终结果往往是增加了对人力的总体需求,而非减少。
主持人Patel:我想在采访结束之际说,我在许多问题上扮演了挑战者的角色,非常感谢你能坦诚交流。但我确实相信,世界向好的潜力是无限的,尤其当有数十亿AI致力于优化我们能体验到的美好、人与人之间的连接以及更多可能性时。所以,我对未来非常乐观。最后一个问题:当今世界,你最想向谁寻求建议?
马克·扎克伯格:哦,天啊。我个人的风格是倾向于听取广泛的建议,向许多人请教,而不是只依赖某一个人。我们拥有一支出色的团队,无论是在公司内部还是董事会层面,都有这样的人。
同时,行业内也有许多人在进行着激动人心的新尝试。所以,并没有某个特定的人选。但我发现这个过程本身,以及与业内那些不断尝试新事物的人交流,是非常有趣的。当世界如此充满活力,能够和志同道合的人一起创造激动人心的事物,这本身就是一种强大的动力,对我而言,这就是生活的意义所在。

阅读最新前沿科技趋势报告,请访问欧米伽研究所的“未来知识库”
https ://wx.zsxq.com/group/454854145828
未来知识库是“欧米伽未来研究所”建立的在线知识库平台,收藏的资料范围包括人工智能、脑科学、互联网、超级智能,数智大脑、能源、军事、经济、人类风险等等领域的前沿进展与未来趋势。目前拥有超过8000篇重要资料。每周更新不少于100篇世界范围最新研究资料。欢迎扫描二维码或访问https ://wx.zsxq.com/group/454854145828进入。
截止到3月31日”未来知识库”精选的百部前沿科技趋势报告
(加入未来知识库,全部资料免费阅读和下载)
牛津未来研究院《将人工智能安全视为全球公共产品的影响、挑战与研究重点》
麦肯锡:超级智能机构:赋能人们释放人工智能的全部潜力
AAAI2025关于人工智能研究未来研究报告
斯坦福:2025斯坦福新兴技术评论:十项关键技术及其政策影响分析报告(191页)
壳牌:2025能源安全远景报告:能源与人工智能(57页)
盖洛普&牛津幸福研究中心:2025年世界幸福报告(260页)
Schwab:2025未来共生:以集体社会创新破解重大社会挑战研究报告(36页)
IMD:2024年全球数字竞争力排名报告:跨越数字鸿沟人才培养与数字法治是关键(214页)
DS系列专题:DeepSeek技术溯源及前沿探索,50页ppt
联合国人居署:2024全球城市负责任人工智能评估报告:利用AI构建以人为本的智慧城市(86页)
TechUK:2025全球复杂多变背景下的英国科技产业:战略韧性与增长路径研究报告(52页)
NAVEXGlobal:2024年十大风险与合规趋势报告(42页)
《具身物理交互在机器人-机器人及机器人-人协作中的应用》122页
2025-2035年人形机器人发展趋势报告53页
EvaluatePharma:2024年全球生物制药行业展望报告:增长驱动力分析(29页)
【AAAI2025教程】基础模型与具身智能体的交汇,350页ppt
Tracxn:2025全球飞行汽车行业市场研究报告(45页)
谷歌:2024人工智能短跑选手(AISprinters):捕捉新兴市场AI经济机遇报告(39页)
【斯坦福博士论文】构建类人化具身智能体:从人类行为中学习
《基于传感器的机器学习车辆分类》最新170页
美国安全与新兴技术中心:2025CSET对美国人工智能行动计划的建议(18页)
罗兰贝格:2024人形机器人的崛起:从科幻到现实:如何参与潜在变革研究报告(11页)
兰德公司:2025从研究到现实:NHS的研究和创新是实现十年计划的关键报告(209页)
康桥汇世(CambridgeAssociates):2025年全球经济展望报告(44页)
国际能源署:2025迈向核能新时代
麦肯锡:人工智能现状,组织如何重塑自身以获取价值
威立(Wiley):2025全球科研人员人工智能研究报告(38页)
牛津经济研究院:2025TikTok对美国就业的量化影响研究报告:470万岗位(14页)
国际能源署(IEA):能效2024研究报告(127页)
Workday:2025发挥人类潜能:人工智能(AI)技能革命研究报告(20页)
CertiK:Hack3D:2024年Web3.0安全报告(28页)
世界经济论坛:工业制造中的前沿技术:人工智能代理的崛起》报告
迈向推理时代:大型语言模型的长链推理研究综述
波士顿咨询:2025亚太地区生成式AI的崛起研究报告:从技术追赶者到全球领导者的跨越(15页)
安联(Allianz):2025新势力崛起:全球芯片战争与半导体产业格局重构研究报告(33页)
IMT:2025具身智能(EmbodiedAI)概念、核心要素及未来进展:趋势与挑战研究报告(25页)
IEEE:2025具身智能(EmbodiedAI)综述:从模拟器到研究任务的调查分析报告(15页)
CCAV:2025当AI接管方向盘:自动驾驶场景下的人机交互认知重构、变革及对策研究报告(124页)
《强化学习自我博弈方法在兵棋推演分析与开发中的应用》最新132页
《面向科学发现的智能体人工智能:进展、挑战与未来方向综述》
全国机器人标准化技术委员会:人形机器人标准化白皮书(2024版)(96页)
美国国家科学委员会(NSB):2024年研究与发展-美国趋势及国际比较(51页)
艾昆纬(IQVIA):2025骨科手术机器人技术的崛起白皮书:创新及未来方向(17页)
NPL&Beauhurst:2025英国量子产业洞察报告:私人和公共投资的作用(25页)
IEAPVPS:2024光伏系统经济与技术关键绩效指标(KPI)使用最佳实践指南(65页)
AGI智能时代:2025让DeepSeek更有趣更有深度的思考研究分析报告(24页)
2025军事领域人工智能应用场景、国内外军事人工智能发展现状及未来趋势分析报告(37页)
华为:2025鸿蒙生态应用开发白皮书(133页
《超级智能战略研究报告》
中美技术差距分析报告2025
欧洲量子产业联盟(QuIC):2024年全球量子技术专利态势分析白皮书(34页)
美国能源部:2021超级高铁技术(Hyperloop)对电网和交通能源的影响研究报告(60页)
罗马大学:2025超级高铁(Hyperloop):第五种新型交通方式-技术研发进展、优势及局限性研究报告(72页)
兰德公司:2025灾难性网络风险保险研究报告:市场趋势与政策选择(93页)
GTI:2024先进感知技术白皮书(36页)
AAAI:2025人工智能研究的未来报告:17大关键议题(88页)
安联Allianz2025新势力崛起全球芯片战争与半导体产业格局重构研究报告
威达信:2025全球洪水风险研究报告:现状、趋势及应对措施(22页)
兰德公司:迈向人工智能治理研究报告:2024EqualAI峰会洞察及建议(19页)
哈佛商业评论:2025人工智能时代下的现代软件开发实践报告(12页)
德安华:全球航空航天、国防及政府服务研究报告:2024年回顾及2025年展望(27页)
奥雅纳:2024塑造超级高铁(Hyperloop)的未来:监管如何推动发展与创新研究报告(28页)
HSOAC:2025美国新兴技术与风险评估报告:太空领域和关键基础设施(24页)
Dealroom:2025欧洲经济与科技创新发展态势、挑战及策略研究报告(76页)
《无人机辅助的天空地一体化网络:学习算法技术综述》
谷歌云(GoogleCloud):2025年AI商业趋势白皮书(49页)
《新兴技术与风险分析:太空领域与关键基础设施》最新报告
150页!《DeepSeek大模型生态报告》
军事人工智能行业研究报告:技术奇点驱动应用加速智能化重塑现代战争形态-250309(40页)
真格基金:2024美国独角兽观察报告(56页)
璞跃(PlugandPlay):2025未来商业研究报告:六大趋势分析(67页)
国际电工委员会(IEC):2025智能水电技术与市场展望报告(90页)
RWS:2025智驭AI冲击波:人机协作的未来研究报告(39页)
国际电工委员会(IEC):2025智能水电技术与市场展望报告(90页)
RWS:2025智驭AI冲击波:人机协作的未来研究报告(39页)
未来今日研究所2025年科技趋势报告第18版1000页
模拟真实世界:多模态生成模型的统一综述
中国信息协会低空经济分会:低空经济发展报告(2024-2025)(117页)
浙江大学:2025语言解码双生花:人类经验与AI算法的镜像之旅(42页)
人形机器人行业:由“外”到“内”智能革命-250306(51页)
大成:2025年全球人工智能趋势报告:关键法律问题(28页)
北京大学:2025年DeepSeek原理和落地应用报告(57页)
欧盟委员会人工智能与未来工作研究报告
加州大学伯克利分校:面向科学发现的多模态基础模型:在化学、材料和生物学中的应用
电子行业:从柔性传感到人形机器人触觉革命-250226(35页)
RT轨道交通:2024年中国城市轨道交通市场数据报告(188页)
FastMoss:2024年度TikTok生态发展白皮书(122页)
CheckPoint:2025年网络安全报告-主要威胁、新兴趋势和CISO建议(57页)
【AAAI2025教程】评估大型语言模型:挑战与方法,199页ppt
《21世纪美国的主导地位:核聚变》最新报告
沃尔特基金会(VoltaFoundation):2024年全球电池行业年度报告(518页)
斯坦福:2025斯坦福新兴技术评论:十项关键技术及其政策影响分析报告(191页)
国际科学理事会:2025为人工智能做好国家研究生态系统的准备-2025年战略与进展报告(英文版)(118页)
光子盒:2025全球量子计算产业发展展望报告(184页)
奥纬论坛:2025塑造未来的城市研究报告:全球1500个城市的商业吸引力指数排名(124页)
FutureMatters:2024新兴技术与经济韧性:日本未来发展路径前瞻报告(17页)
《人类与人工智能协作的科学与艺术》284页博士论文
《论多智能体决策的复杂性:从博弈学习到部分监控》115页
《2025年技术展望》56页slides
大语言模型在多智能体自动驾驶系统中的应用:近期进展综述
【牛津大学博士论文】不确定性量化与因果考量在非策略决策制定中的应用
皮尤研究中心:2024美国民众对气候变化及应对政策的态度调研报告:气候政策对美国经济影响的多元观点审视(28页)
空间计算行业深度:发展趋势、关键技术、行业应用及相关公司深度梳理-250224(33页)
Gartner:2025网络安全中的AI:明确战略方向研究报告(16页)
北京大学:2025年DeepSeek系列报告-提示词工程和落地场景(86页)
北京大学:2025年DeepSeek系列报告-DeepSeek与AIGC应用(99页)
CIC工信安全:2024全球人工智能立法的主要模式、各国实践及发展趋势研究报告(42页)
中科闻歌:2025年人工智能技术发展与应用探索报告(61页)
AGI智能时代:2025年Grok-3大模型:技术突破与未来展望报告(28页)
上下滑动查看更多


文章作者: ZejunCao
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 ZejunCao !
  目录