奥特曼的“上帝情结”:TED创始人质疑他为何有权塑造人类未来


奥特曼的“上帝情结”:TED创始人质疑他为何有权塑造人类未来

仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接

作者:SteveRosenbaum
译者:核子可乐
策划:褚杏娟
“山姆,考虑到你所参与创造的是一项将要重塑我们整个物种命运的技术,那么你做这件事的伦理依据和权威性来源是什么?如果你搞错了,又打算如何承担这份责任?”
这个悬而未决的问题面了本届温哥华TED2025大会的一根利刺,亦是TED创始人克里斯·安德森向ChatGPT缔造者山姆·奥特曼发出的终极一问。可讽刺的是,这个问题并非来自安德森本人,而是由OpenAI家模型的竞品Claude所提出。现场的紧张感与焦灼氛围由此可见一斑。
奥特曼的回应则是,“咱们聊了半个小时,你问的一直都是这类问题。”
这番回应巧妙地转移了对话。此次对话犀利地指向我们拥抱AI未来的各项弊端——那些被提出、被承认,之后又被巧妙回避的棘手难题。
看着这场问责大戏在舞台上推进,观众们深深被它揭示出的AI时代权力形态所震撼。这位掌控着周活用户高达5亿、规模甚至超过北美总人口的科技主宰,竟然无法直接回答这份权力来自哪里。
“这是无可避免的现实”
奥特曼平静地宣称,“这是无可避免的现实。就像一项全世界都已知晓的基础物理发现,必将成为真实世界的一部分。”他的证据仿佛在描述明天太阳还会照样升起。“我们必须谨慎地予以接纳,但要注意消除恐惧,否则我们会被其他借AI之力而变得更强之人所击败。”
而他话语中的宿命论也直接终结了这个意义之问。既然一切无可避免,那又何必还要寻根问底?而如果抗拒AI技术意味着被“击败”,那我们自然也就别无选择。
这种思维方式——即AI的飞速发展并非出于个别人的选择,而是自然规律的体现——巧妙免除了奥特曼及其同行在技术开发期间逐渐脱离普通民众的现实责任。
但安德森并没有就此放过他。“问题在于,我一方面认为可能需要安全机构的介入,但另一方面却意识到机身本身恰恰就是风险的来源”,同时强调奥特曼在监管问题上存在立场冲突。
安德森引用了托尔金在《魔戒》中关于腐败的比喻,认为这个例子如今在硅谷正真实发生,“埃隆·马斯克有说法,认为你已经被力量之戒给腐蚀了。看到科技企业的CEO们权力越来越大、掌握的财富越来越丰厚,每个人都在想,他们真能驾驭这一切吗?还是说,他们已经被这股力量所吞噬?”
奥特曼的回答意味深长。他并没有直接为自己开脱,而是将问题抛回给了安德森:“那你觉得我做得怎么样?特别是跟那些掌握了巨大权力,而且行事风格一变再变的CEO相比?”
这番话巧妙地扭转了局面,强迫安德森在直接批评对方和就此罢休之间二选其一。安德森则选择了一条中间路线,承认奥特曼个人的行为还算得体,但同时也强调了更大的担忧:“我认为人们最担心的是OpenAI公开转向盈利模式。有些觉得这代表着你已经被欲望侵蚀了,催动你在潜在经济效益被耗尽之前努力榨出每一分收益。”
这番对话也揭示出AI时代下我们普通人身处的困境:被迫信任科技领袖的个人品质,但他们的企业架构和激励机制却越来越倾向于赤裸裸地追求利润和权力。
“它会彻底了解你”
在这段对话当中,最令人毛骨悚然的桥段也许来自奥特曼对于AI未来愿景的表述:“它将陪伴人的一生,观察你与ChatGPT的所有对话。也许有一天,如果大家愿意,AI会随时倾听你的声音、观察你的一举一动。它会彻底了解你,成为你的延伸、你的伙伴,成为努力帮助你做得更好、发掘所有潜能的存在。”
安德森将此比作电影《她》中的情节,片中AI会阅读主角的所有电子邮件、代表他做出改变人生的行动。奥特曼并不反对这样的联想。
奥特曼轻描淡写地描述了未来AI系统监控我们的具体方式——“观察你的一举一动”,这暴露了其观念与大多数人抗拒持续监控这一现实的根本性脱节。在这个对于技术意义愈发抵触的新时代,“如果大家愿意”这个前提已经显得空洞而无力。
父母悖论
安德森问起成为人父是否改变了奥特曼对于潜在风险的观点,并提出了一个思维实验:如果按下一个按钮,你的孩子就能拥有精彩的人生,但同时有着10%的毁灭概率,你会怎么选择?奥特曼立即回应,“问题是并没有这样的选项。当然,如果把场景换到工作这边来,那我的答案是,应该不会按。”
个人风险承受能力与专业风险接受能力之间的脱节,体现的正是AI开发中最核心的认知失调。奥特曼绝不会接受自己的孩子承受10%的毁灭风险,但OpenAI的工作却在给全球数十亿儿童塑造一个充满未知的未来。
正如他所说,“我以前真的很在意这些问题,比如不要搞到世界毁灭。现在我也仍然在意,跟有没有孩子并无关系。”
但在意归在意,他也从来没有放慢过推进的脚步……
开源冲突
奥特曼自豪地宣布,“我们将要开发一套极其强大的开源模型。也许在座的某些人会以你我不喜欢的方式加以使用。”
这种对于强大AI模型可能造成的危害表现出的漫不经心态度,与奥特曼之前对于安全的强调和口头认可形成了鲜明对比。结合科技行业,这就相当于“有些会可能滥用我们即将发布的核发射代码,但我们的创新成果就是这个样子。”
安德森指出了这种矛盾,并询问OpenAI内部如何为防范危险AI能力被公开而划定“红线”。奥特曼提到他们拥有“准备框架”,但没有具体说明——唯一可以肯定的,就是公众对于这套框架的定义和执行都没有任何发言权。
“关于AGI,不同的人在不同的时间点上会有不同的定义”
在被问及如何定义通用人工智能(AGI)时,奥特曼透露了一个惊人的现实:“如果让10位OpenAI研究人员坐在一起讨论这个定义,得到的答案可能都不止10个。”
安德森一针见血地指出了问题所在:“但这很令人担忧,不是吗?毕竟这是我们的使命所在。我们希望率先实现AGI、承诺会安全达成目标,但我们甚至一直没能找到能清晰描述这个目标的定义。”
这段对话暴露出了OpenAI的核心矛盾:他们正在追求一个定义不明确、甚至可能给整个人类族群带来灭顶之灾的目标,但同时又向公众保证会“安全”达成。
接下来,我们该何去何从?
最发人深省的一点在于,安德森建议召开一场小型专家峰会,为全球制定AI安全标准。奥特曼又是怎么回答的?
“当然,但我更关心的问题是,数亿用户作为整体到底想要什么。”
这听起来非常民主,但相信很多人都能感受到其中的误导性。用户“想要”的只能是明确给出的选项,而非充满主观发挥空间的随机路线。人们也会“想要”抽烟,但直到几十年后才慢慢意识到这对健康造成的严重摧残。
现实在于,我们无法通过投票来决定奥特曼和他的同事们应不应该做出这些重大决定,毕竟他们已经自封为人类技术命运的负责人。
安德森就此评论道,“我不知道该说什么了。非要评论的话,我觉得你让我心生敬畏,毕竟你打造出了世界上最令人惊叹的成果之一。”
相信更多朋友感受到的会是恐惧。不是恐惧奥特曼本人,毕竟他看起来真诚且睿智,始终希望做好正确的事;真正令人恐惧的是这套制度,它允许少数技术专家做出事关全球的决策,他们贸然实施着缺少法理性来源的行动,但行动的后果却由投资者和全体用户来承担。
所以这场对话中最重要的问题始终悬而未决:山姆·奥特曼或者其他什么人重塑人类命运的伦理依据和权威性来源是什么?这种法理来源的缺失令人不安,但我们却已经在懵懂之间走了很远、走到了现在。
附:奥特曼观点总结
AI对于就业和创意产业的影响
AI对就业的影响:山姆总结称,关于AI对就业的冲击,人们普遍抱有两种观点——要么担心自己被取代,要么只是将AI视为一种新型工具,在提高市场对于产出的期待的同时也赋予了从业者们更强大的能力,帮助他们取得愈发精彩的成果。
创意作品、知识产权以及向创作者付费:山姆表示,人类的创造力至关重要,并承认目前在知识产权、合理使用与知情同意等方面存在挑战。他提出了新的商业模式,希望让那些在风格层面启发了AI生成内容的创作者们能够拿到公平的回报。
开源与AI竞赛
OpenAI对于开源和DeepSeek的态度:山姆承认OpenAI拥抱开源较晚,但证实公司目前正在开发一款强大且领先的开源模型。他还提到,尽管不可避免会遭到一定滥用,但开源模型确实意义重大。
AI已经掀起一波发展竞赛:山姆并不认可AI已经沦为不负责任竞赛的说法,他声称大多数AI厂商都真心关注安全问题,并强调即使是在竞争压力之下,OpenAI也始终在以谨慎态度规划并处理安全问题。
打造卓越AI产品
专注于产品而非模型原始能力:山姆指出,未来会涌现出大量先进的AI模型,但OpenAI一直优先考虑创造最佳用户体验,并强调实现个人记忆等功能,尝试随时间推移愈发了解用户以保证AI更加实用。
预期的AI突破
AI驱动下的科学发现:山姆表示,下一个重大突破将来自AI在科学领域的应用,包括在对抗疾病方面的重大进展,并有可能发现室温超导体等新材料。但他同时指出,物理学理论方面的突破则可能需要更长时间。
自主软件开发:山姆提到,由自主软件编写智能体驱动的软件工程领域,也即将迎来另一个重大飞跃。
对于AI安全的担忧
强大AI带来的严重风险:山姆公开表达了对于AI滥用的高度担忧,例如生物恐怖主义、网络安全威胁以及AI可能获得人类无法控制的自我改进能力。
OpenAI的安全准备框架:山姆描述了OpenAI在发布AI模型之前用于系统识别的结构化方法与风险管理机制,但也承认公司内部对于具体安全策略仍经常发生分歧。
公众焦虑与生存风险:山姆认为公众对于AI生存风险的担忧是合理的,但认为从古至今,社会一直是通过经验加谨慎调整、而非排斥和恐惧来适应新的技术。
定义和监管高级AI
定义通用人工智能(AGI)与ChatGPT的当前能力:山姆澄清称,ChatGPT并不能算AGI,因为它还无法自主学习、自我改进、发现新的科学知识或者独立执行复杂的在线任务。但他承认,随着AI变得越来越智能,其具体定义也将有所不同。
AI监管与许可:山姆改变了之前的立场,由支持政府就高级AI发布许可转为推荐使用外部安全测试框架,以确保强大的AI模型在公开发布前接受认真评估。
个人观点、批评与责任
公众对于山姆本人和OpenAI的看法:山姆承认OpenAI从完全开放转向部分商业化的决策在公众中激起了一定非议,同时坦言策略转变也是无奈之举,但重申了承诺,即以安全方式发布强大AI成果。
对于权力和腐败的批评:山姆否认自己被AI成功所带来的财富或者权力所腐蚀,并表示他自认为并没有改变,强调OpenAI的战略转型是统筹AI发展的合理举措。
身为人父对于山姆思维的影响:山姆分享道,身为人父对他个人产生了深远的影响。他不觉得自己从事的AI工作会给孩子未来带来风险,但承认自己感受到了更大的责任,希望能给孩子塑造一个更积极的未来环境。
关于AI的社会决策
广泛收集用户反馈还是依托精英峰会:山姆更倾向于从OpenAI的数亿用户处收集AI安全偏好,而非仅仅依赖小型专家峰会。这表明AI自身有助于更准确地反映公众的价值观和偏好。
对于下一代人的展望
山姆后代将迎来的世界:山姆描述了一种新的未来,即孩子们打出生起就在接触经人类更聪明的AI。他还展望了持续创新、资源愈发丰富且无缝融入日常生活的智能AI新形态,期待未来几代人清晰意识到人类局限性的终结并坦然接受这样的现实。
相关链接:
https ://x.com/btibor91/status/1910815598004535512

阅读最新前沿科技趋势报告,请访问欧米伽研究所的“未来知识库”
https ://wx.zsxq.com/group/454854145828
未来知识库是“欧米伽未来研究所”建立的在线知识库平台,收藏的资料范围包括人工智能、脑科学、互联网、超级智能,数智大脑、能源、军事、经济、人类风险等等领域的前沿进展与未来趋势。目前拥有超过8000篇重要资料。每周更新不少于100篇世界范围最新研究资料。欢迎扫描二维码或访问https ://wx.zsxq.com/group/454854145828进入。
截止到3月31日”未来知识库”精选的百部前沿科技趋势报告
(加入未来知识库,全部资料免费阅读和下载)
牛津未来研究院《将人工智能安全视为全球公共产品的影响、挑战与研究重点》
麦肯锡:超级智能机构:赋能人们释放人工智能的全部潜力
AAAI2025关于人工智能研究未来研究报告
斯坦福:2025斯坦福新兴技术评论:十项关键技术及其政策影响分析报告(191页)
壳牌:2025能源安全远景报告:能源与人工智能(57页)
盖洛普&牛津幸福研究中心:2025年世界幸福报告(260页)
Schwab:2025未来共生:以集体社会创新破解重大社会挑战研究报告(36页)
IMD:2024年全球数字竞争力排名报告:跨越数字鸿沟人才培养与数字法治是关键(214页)
DS系列专题:DeepSeek技术溯源及前沿探索,50页ppt
联合国人居署:2024全球城市负责任人工智能评估报告:利用AI构建以人为本的智慧城市(86页)
TechUK:2025全球复杂多变背景下的英国科技产业:战略韧性与增长路径研究报告(52页)
NAVEXGlobal:2024年十大风险与合规趋势报告(42页)
《具身物理交互在机器人-机器人及机器人-人协作中的应用》122页
2025-2035年人形机器人发展趋势报告53页
EvaluatePharma:2024年全球生物制药行业展望报告:增长驱动力分析(29页)
【AAAI2025教程】基础模型与具身智能体的交汇,350页ppt
Tracxn:2025全球飞行汽车行业市场研究报告(45页)
谷歌:2024人工智能短跑选手(AISprinters):捕捉新兴市场AI经济机遇报告(39页)
【斯坦福博士论文】构建类人化具身智能体:从人类行为中学习
《基于传感器的机器学习车辆分类》最新170页
美国安全与新兴技术中心:2025CSET对美国人工智能行动计划的建议(18页)
罗兰贝格:2024人形机器人的崛起:从科幻到现实:如何参与潜在变革研究报告(11页)
兰德公司:2025从研究到现实:NHS的研究和创新是实现十年计划的关键报告(209页)
康桥汇世(CambridgeAssociates):2025年全球经济展望报告(44页)
国际能源署:2025迈向核能新时代
麦肯锡:人工智能现状,组织如何重塑自身以获取价值
威立(Wiley):2025全球科研人员人工智能研究报告(38页)
牛津经济研究院:2025TikTok对美国就业的量化影响研究报告:470万岗位(14页)
国际能源署(IEA):能效2024研究报告(127页)
Workday:2025发挥人类潜能:人工智能(AI)技能革命研究报告(20页)
CertiK:Hack3D:2024年Web3.0安全报告(28页)
世界经济论坛:工业制造中的前沿技术:人工智能代理的崛起》报告
迈向推理时代:大型语言模型的长链推理研究综述
波士顿咨询:2025亚太地区生成式AI的崛起研究报告:从技术追赶者到全球领导者的跨越(15页)
安联(Allianz):2025新势力崛起:全球芯片战争与半导体产业格局重构研究报告(33页)
IMT:2025具身智能(EmbodiedAI)概念、核心要素及未来进展:趋势与挑战研究报告(25页)
IEEE:2025具身智能(EmbodiedAI)综述:从模拟器到研究任务的调查分析报告(15页)
CCAV:2025当AI接管方向盘:自动驾驶场景下的人机交互认知重构、变革及对策研究报告(124页)
《强化学习自我博弈方法在兵棋推演分析与开发中的应用》最新132页
《面向科学发现的智能体人工智能:进展、挑战与未来方向综述》
全国机器人标准化技术委员会:人形机器人标准化白皮书(2024版)(96页)
美国国家科学委员会(NSB):2024年研究与发展-美国趋势及国际比较(51页)
艾昆纬(IQVIA):2025骨科手术机器人技术的崛起白皮书:创新及未来方向(17页)
NPL&Beauhurst:2025英国量子产业洞察报告:私人和公共投资的作用(25页)
IEAPVPS:2024光伏系统经济与技术关键绩效指标(KPI)使用最佳实践指南(65页)
AGI智能时代:2025让DeepSeek更有趣更有深度的思考研究分析报告(24页)
2025军事领域人工智能应用场景、国内外军事人工智能发展现状及未来趋势分析报告(37页)
华为:2025鸿蒙生态应用开发白皮书(133页
《超级智能战略研究报告》
中美技术差距分析报告2025
欧洲量子产业联盟(QuIC):2024年全球量子技术专利态势分析白皮书(34页)
美国能源部:2021超级高铁技术(Hyperloop)对电网和交通能源的影响研究报告(60页)
罗马大学:2025超级高铁(Hyperloop):第五种新型交通方式-技术研发进展、优势及局限性研究报告(72页)
兰德公司:2025灾难性网络风险保险研究报告:市场趋势与政策选择(93页)
GTI:2024先进感知技术白皮书(36页)
AAAI:2025人工智能研究的未来报告:17大关键议题(88页)
安联Allianz2025新势力崛起全球芯片战争与半导体产业格局重构研究报告
威达信:2025全球洪水风险研究报告:现状、趋势及应对措施(22页)
兰德公司:迈向人工智能治理研究报告:2024EqualAI峰会洞察及建议(19页)
哈佛商业评论:2025人工智能时代下的现代软件开发实践报告(12页)
德安华:全球航空航天、国防及政府服务研究报告:2024年回顾及2025年展望(27页)
奥雅纳:2024塑造超级高铁(Hyperloop)的未来:监管如何推动发展与创新研究报告(28页)
HSOAC:2025美国新兴技术与风险评估报告:太空领域和关键基础设施(24页)
Dealroom:2025欧洲经济与科技创新发展态势、挑战及策略研究报告(76页)
《无人机辅助的天空地一体化网络:学习算法技术综述》
谷歌云(GoogleCloud):2025年AI商业趋势白皮书(49页)
《新兴技术与风险分析:太空领域与关键基础设施》最新报告
150页!《DeepSeek大模型生态报告》
军事人工智能行业研究报告:技术奇点驱动应用加速智能化重塑现代战争形态-250309(40页)
真格基金:2024美国独角兽观察报告(56页)
璞跃(PlugandPlay):2025未来商业研究报告:六大趋势分析(67页)
国际电工委员会(IEC):2025智能水电技术与市场展望报告(90页)
RWS:2025智驭AI冲击波:人机协作的未来研究报告(39页)
国际电工委员会(IEC):2025智能水电技术与市场展望报告(90页)
RWS:2025智驭AI冲击波:人机协作的未来研究报告(39页)
未来今日研究所2025年科技趋势报告第18版1000页
模拟真实世界:多模态生成模型的统一综述
中国信息协会低空经济分会:低空经济发展报告(2024-2025)(117页)
浙江大学:2025语言解码双生花:人类经验与AI算法的镜像之旅(42页)
人形机器人行业:由“外”到“内”智能革命-250306(51页)
大成:2025年全球人工智能趋势报告:关键法律问题(28页)
北京大学:2025年DeepSeek原理和落地应用报告(57页)
欧盟委员会人工智能与未来工作研究报告
加州大学伯克利分校:面向科学发现的多模态基础模型:在化学、材料和生物学中的应用
电子行业:从柔性传感到人形机器人触觉革命-250226(35页)
RT轨道交通:2024年中国城市轨道交通市场数据报告(188页)
FastMoss:2024年度TikTok生态发展白皮书(122页)
CheckPoint:2025年网络安全报告-主要威胁、新兴趋势和CISO建议(57页)
【AAAI2025教程】评估大型语言模型:挑战与方法,199页ppt
《21世纪美国的主导地位:核聚变》最新报告
沃尔特基金会(VoltaFoundation):2024年全球电池行业年度报告(518页)
斯坦福:2025斯坦福新兴技术评论:十项关键技术及其政策影响分析报告(191页)
国际科学理事会:2025为人工智能做好国家研究生态系统的准备-2025年战略与进展报告(英文版)(118页)
光子盒:2025全球量子计算产业发展展望报告(184页)
奥纬论坛:2025塑造未来的城市研究报告:全球1500个城市的商业吸引力指数排名(124页)
FutureMatters:2024新兴技术与经济韧性:日本未来发展路径前瞻报告(17页)
《人类与人工智能协作的科学与艺术》284页博士论文
《论多智能体决策的复杂性:从博弈学习到部分监控》115页
《2025年技术展望》56页slides
大语言模型在多智能体自动驾驶系统中的应用:近期进展综述
【牛津大学博士论文】不确定性量化与因果考量在非策略决策制定中的应用
皮尤研究中心:2024美国民众对气候变化及应对政策的态度调研报告:气候政策对美国经济影响的多元观点审视(28页)
空间计算行业深度:发展趋势、关键技术、行业应用及相关公司深度梳理-250224(33页)
Gartner:2025网络安全中的AI:明确战略方向研究报告(16页)
北京大学:2025年DeepSeek系列报告-提示词工程和落地场景(86页)
北京大学:2025年DeepSeek系列报告-DeepSeek与AIGC应用(99页)
CIC工信安全:2024全球人工智能立法的主要模式、各国实践及发展趋势研究报告(42页)
中科闻歌:2025年人工智能技术发展与应用探索报告(61页)
AGI智能时代:2025年Grok-3大模型:技术突破与未来展望报告(28页)
上下滑动查看更多


文章作者: ZejunCao
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 ZejunCao !
  目录