FOCUS : 以对象为中心的机器人操作世界模型


FOCUS : 以对象为中心的机器人操作世界模型

仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接

来源:GreateAMind
FOCUS:object-centricworldmodelsforroboticmanipulation
焦点:以对象为中心的机器人操作世界模型
https ://biblio. ugent.be/publication/01JVKRSDJA9TGBAAAV5NSH52V5
将世界理解为对象及其可能的交互关系是一项重要的认知能力。然而,当前强化学习中采用的世界模型通常缺乏这种结构,而是用全局潜在向量来表示世界状态。为解决这一问题,我们提出了FOCUS——一种基于模型的智能体,其学习以对象为中心的世界模型。这种新颖的表示方法还支持设计以对象为中心的探索机制,鼓励智能体与对象交互并发现有用的互动方式。我们在多个机器人操作场景中对FOCUS进行了基准测试,发现该方法可用于提升操作技能。以对象为中心的世界模型能够更准确地预测场景中的对象,并实现更高效的学习。对象中心探索策略促进了与环境中对象的交互(如抓取、移动和旋转对象),并使智能体能够快速适应稀疏奖励的强化学习任务。我们还使用FrankaEmika机械臂展示了FOCUS在实际应用中的有效性。相关网站:focus-manipulation. github.io。
关键词:世界模型、以对象为中心的表示、神经机器人学、对象中心探索、具身人工智能
在日常生活中,我们可以轻松地与对象交互以完成各种任务。通过这些交互,我们本能地推断对象的身份、空间位置、三维结构、外观和纹理,有效地构建了对象形成方式的生成模型(Parr等人,2021)。对于机器人操作器而言,由于智能体与环境之间交互的复杂性和动态性,复制这些任务面临重大挑战。
近年来,深度强化学习(RL)已成为处理复杂操作场景的有前景的方法(Levine等人,2016;OpenAI等人,2019;Kalashnikov等人,2018;Lu等人,2021;Lee等人,2021;Ferraro等人,2022a)。在RL算法中,基于模型的方法相比无模型方法有望提供更高的数据效率(Fujimoto等人,2018;Haarnoja等人,2018)。通过采用世界模型(Ha和Schmidhuber,2018;Hafner等人,2021)——即通过重建感官观察来学习环境动态的生成模型——基于模型的智能体已在多个领域(Hafner等人,2021;Rajeswar等人,2023;Hafner等人,2023)展现出优异性能,包括机器人操作和运动等实际应用(Wu等人,2022)。然而,无差别重建环境中所有信息的世界模型可能存在多种缺陷。例如,在视觉任务中,它们可能忽略对预测未来重要的小特征(如小物体)(Seo等人,2022),还倾向于将模型容量浪费在视觉丰富但无关的特征(如静态背景)上(Deng等人,2022)。在机器人操作场景中,这一问题尤为突出,因为智能体迫切需要获取关于待操作对象的信息以解决给定任务。
强化学习在操作任务中的另一个挑战是设计驱动智能体学习完成任务的奖励函数。尝试设计密集奖励函数容易导致奖励设计错误(Amodei等人,2016;Clark和Amodei,2016;Krakovna等人,2020;Popov等人,2017)。一种解决方案是采用稀疏奖励反馈,仅在任务成功完成时提供正奖励。然而,这类函数难以通过RL优化,因为在环境中难以找到此类奖励。因此,它们需要合适的探索策略,此前的研究已采用人工好奇心机制(Oudeyer等人,2007;Schmidhuber,1991)或熵最大化策略(Mutti等人,2021;Liu和Abbeel,2021)。在Liu和Abbeel(2021)的研究中,探索通过最大化整个潜在表示的熵来实现,这可能导致智能体专注于探索场景中无关的方面(Burda等人,2018b)。
相比之下,人类倾向于通过与对象交互来建立结构化的世界心理模型,记录与对象相关的特定特征(如形状、颜色等)(Hawkins等人,2017;Ferraro等人,2023)。从婴儿时期开始,幼儿通过主动接触对象并用手操作它们来学习,发现以对象为中心的视角,从而构建准确的心理模型(Smith等人,2018;Slone等人,2019;Ferraro等人,2022b)。
在这项工作中,我们提出的方法基于以下原则:对象应在智能体的世界模型中占据核心地位,同时受以下问题驱动:i)对环境中对象实体建模的复杂性;ii)自主发现与这些对象交互的必要性。我们引入FOCUS——一种基于模型的RL智能体,其学习以对象为中心的世界表示。与整体场景表示不同,对象的潜在向量使智能体能够优先处理关于对象的信息。利用以对象为中心的表示,可以设计专注于涉及对象交互的探索策略。关键在于,与最先进的方法相比,所提出的聚焦探索策略可在稀疏奖励任务中提升性能。
在强化学习中,解决稀疏奖励任务是一个难题,因为智能体难以探索环境并识别产生奖励的状态。受人工好奇心理论(Schmidhuber,1991;Oudeyer等人,2007)的启发,已有多项研究为强化学习设计了探索策略(Pathak等人,2017;Mazzaglia等人,2022;Rajeswar等人,2021)。其他取得显著成功的探索策略基于最大化不确定性(Pathak等人,2019;Sekar等人,2020)或智能体状态表示的熵(Liu和Abbeel,2021;Seo等人,2021;Mutti等人,2021)。在视觉环境中,这类探索方法存在一个问题:它们可能过度关注易于到达且能显著改变环境视觉外观的状态(Burda等人,2018a)。在机器人操作场景中,这会导致不良行为——例如机械臂在相机附近探索不同姿势,却忽略与工作空间中对象的交互(Rajeswar等人,2023)。相比之下,我们的方法利用以对象为中心的表示,鼓励智能体与场景中的对象交互。通过设计对象中心探索策略,我们为机器人操作提供了比好奇心机制更优的选择,后者在环境中缺乏明确的探索目标。
将场景分解为对象可支持智能体对高层级基础元素进行高效推理,并确保其关注最相关的概念(Dittadi等人,2021)。近期涌现出多种基于“将对象作为模型中独立实体表示”原则的二维对象中心表示方法(Locatello等人,2020;Greff等人,2020;Burgess等人,2019;Nakano等人,2023)。由于计算能力和表示质量的限制,这些对象中心表示尚未扩展到更复杂的场景——即需要同时建模智能体与环境交互的场景。相关研究探讨了对象中心表示在控制任务中的实用性,采用无模型强化学习(Diuk等人,2008;Janner等人,2019;Kipf等人,2020;Yoon等人,2023)。受这些方法启发,我们提出一种对象中心世界模型,通过结合基于模型的强化学习实现行为的高效学习。该表示方法提升了智能体对对象的预测能力,既可用于实现更精准的控制(如解决密集奖励强化学习任务),也能通过新型对象中心探索策略促进与对象的交互(如在稀疏奖励强化学习任务中)。与我们的方法最接近的现有研究(Sancaktar等人,2022)提出了一种基于图结构模型的对象中心探索策略用于控制,但该方法需要预先获取对象的精确信息(如位置),而这类信息通常仅在仿真环境中可用。相比之下,我们的方法专为常见的视觉操作场景设计——智能体仅通过相机图像获取场景信息。
总体而言,所学习的世界模型由以下组件组成:
总体而言,所学习的世界模型由以下组件组成:
为了将对象信息区分为不同的潜在向量,以对象为中心的组件利用了对象判别过程,该过程需要学习分割场景观测。一些模拟机器人环境可提供此信息,但在真实场景中,相同的过程并非易事。
大型预训练分割模型的日益普及为避免该问题提供了机会。因此,在我们的实验中,我们采用了SegmentAnythingModel(fastSAM;Kirillov等人,2023;Zhao等人,2023)的高效实现。在每个episodes开始时,使用fastSAM通过边界框或文本提示生成每个对象的分割实例。对于后续帧,分割图由跟踪模型生成,我们基于XMem模型(Yang等人,2023)实现该跟踪模型。这极大地简化了在机器人工作空间中获取分割掩码的过程。
强化学习中的状态最大熵方法(Mutti等人,2021;Seo等人,2021;Liu和Abbeel,2021)会学习一种环境表示,并在此基础上计算熵估计值,智能体的策略会最大化该熵以促进探索。鉴于我们的以对象为中心的表示,我们可以通过让智能体最大化对象潜在状态表示的熵,来激励针对对象交互和新对象视角发现的有向探索。
为了估计批量数据上的熵值,我们在对象潜在表示之上应用基于K近邻粒子的估计器(Singh等人,2003)。通过最大化场景中所有对象的总体熵,我们推导出以下用于以对象为中心探索的奖励:
并通过最大化预测的期望奖励来训练。得益于世界模型,奖励可在虚拟场景中推断,因此任务演员-评论家的学习可完全在虚拟环境中进行,同时智能体持续探索真实环境(Sekar等人,2020)。
我们认为,FOCUS以对象为中心的世界模型和探索策略可用于改进机器人操作中的控制,尤其是在稀疏奖励场景中。这些实验旨在通过评估以下方面从经验上验证我们的论点:(i)FOCUS与世界模型和探索领域最先进方法相比的探索性能;(ii)在探索阶段后,FOCUS在稀疏奖励操作任务上的表现;(iii)我们验证以对象为中心的世界模型在密集奖励任务上的性能,并对模型进行额外分析,例如可视化世界模型的重建结果。最后,我们将FOCUS部署到真实世界的装置中。
我们从三个机器人操作基准(如图2所示)中选取了10个任务:ManiSkill2(Gu等人,2023)、robosuite(Zhu等人,2020)和Metaworld(Yu等人,2019)。ManiSkill和robosuite都为智能体提供分割掩码作为(可选)输入,而Metaworld则不提供。因此,我们采用fastSAM(Zhao等人,2023)在这些任务中提取分割掩码,该评估设置为我们提供了一个用于真实世界实验的测试场。感兴趣的对象通过文本提示(Cheng等人,2023),提供场景中对象的名称。由SAM模型生成的掩码被视为对象掩码,而其负值则被视为背景掩码。
我们将FOCUS与三种探索策略进行比较:
(Sekar等人,2020)
(Liu和Abbeel,2021)
为确保与P2E和FOCUS的公平比较,APT和随机动作均基于DreamerV2世界模型的智能体实现(遵循Rajeswar等人,2023的设置并使用其开源代码)。除批量大小和序列长度均设为32外,超参数与DreamerV2(Hafner等人,2021)保持一致。
FOCUS的实现细节:
为比较不同探索策略在操作任务中的表现,我们选择了一组与对象交互相关的指标:
从图3可见,FOCUS与对象的交互频率显著高于其他方法,且探索性能随时间持续提升。APT和P2E表现相近,仅略优于随机策略,这表明在机器人操作环境中探索时,聚焦对象具有重要性。
在探索阶段,所有智能体在环境中尝试不同动作,学习给定任务的动态规律和奖励函数,但此阶段不使用任务奖励。在环境中探索200万步后,我们利用探索阶段发现的奖励来适配任务演员-评论家,并通过额外(较少)的环境交互对智能体进行微调以完善任务执行。图4展示了六个任务的适配曲线(每轮奖励随时间的变化)。
结果表明,FOCUS在所有任务中取得了最显著的进展,证明该智能体能持续发现环境中的稀疏奖励,使任务适配更轻松。支持这一结论的现象是:尽管奖励稀疏,但所有任务的微调性能几乎立即开始提升。对于其他方法,Plan2Explore和APT仅在少数任务(如抽屉打开、门关闭)中能持续发现奖励交互,且表现与FOCUS相近。在稀疏奖励(而非密集奖励)条件下,探索策略有限的方法难以在微调阶段取得良好性能。而随机策略作为最原始的探索方式,几乎无法发现奖励,导致稀疏奖励场景下的微调极为困难。
我们开发了以对象为中心的世界模型,通过结构化潜在表示改进对象信息在模型中的表征方式。为验证这一设计,我们进行了额外分析,以证明:与使用“扁平化”潜在结构相比,采用对象中心结构化世界模型可提升对象预测精度,并验证对象潜在状态中包含的信息。
工作空间中对象的尺寸通常小于其他元素(如机器人、桌面和背景)。当使用Dreamer(Hafner等人,2021)式的“扁平化”世界表示时,对象的视觉信息可能在世界模型的编解码过程中因压缩而丢失。图5对比了FOCUS与Dreamer解码器的定性重建结果:由于显式的对象建模,FOCUS能精确重建场景中的任意对象;而Dreamer在许多场景中失败,尤其是在小对象或与背景视觉对比度低的情况下——例如在MasterChefCan和Banana环境中,Dreamer对每个对象的重建都呈现模糊形态,反映出其缺乏足够误差信号以实现细节重建。
为量化对象预测的性能差异,图6展示了对象周围图像区域的预测误差。FOCUS始终能提供更精确的对象预测。
更好的对象预测是否带来更好的操作性能?为将操作任务学习与探索问题分离,我们在六个密集奖励任务(抽屉打开、门打开、门关闭、立方体提起、立方体堆叠、水龙头旋转)上对比了FOCUS和Dreamer的表现。该对比旨在验证:改进的对象预测性能是否足以普遍提升任务表现(与探索性能无关)。我们为这些任务设置了三个基线:
其中,Multi-CNNs从单帧观测中提取对象中心表示(无时间信息),并用于训练无模型PPO智能体(Schulman等人,2017);Dreamer(w/objectpos)将对象位置与智能体本体感受信息拼接,并将本体感受损失项缩放100倍以平衡低维向量(本体感受+对象位置)与高维图像矩阵(64×64×3)的维度差异。图7对比了各方法以每轮奖励衡量的最终归一化性能。
结果显示,FOCUS取得了最高的中位数和平均性能,支持了“对象中心世界模型普遍提升操作任务RL性能”的假设。当Dreamer获得位置信息时,其性能提升(因系统更易跟踪对象位置),但FOCUS仍因隐含信息更丰富(如朝向、接触状态、颜色等)而表现更优。相比之下,Multi-CNNs因表示缺乏时间一致性且采用效率较低的无模型学习策略,性能落后于其他方法。
我们评估FOCUS是否将每个对象的信息正确划分到各自的潜在空间中,且不存储场景中其他元素的额外信息。为了解FOCUS的信息分离效果,我们从对象潜在空间中解码信息,并在图8中展示了一些示例。
显然,对象潜在空间存储了关于对象的视觉信息,仅从图像其余部分捕获少量信息。“泄露”的信息主要存在于对象周围区域,我们认为这是由于分割掩码的质量所致。在最后两列中,我们还展示了机械臂遮挡行为的示例(部分遮挡和完全遮挡)。尽管无法完全看到对象,FOCUS仍能将对象信息与机械臂分离,并从被遮挡的视图中重建完整的未掩码对象。
我们将FOCUS部署在FrankaEmika机械臂装置上。真实场景中的主要挑战在于缺乏分割掩码。与MetaWorld实验类似,我们采用fastSAM模型(Kirillov等人,2023;Zhao等人,2023),通过文本提示(Cheng等人,2023)获取分割掩码。
为评估真实场景下对象中心世界模型的性能,我们设计了一个简单环境:桌面放置一块黄色砖块,如图9所示。立方体通过绳子连接到机器人末端执行器,作为主要交互对象。每轮持续100步,随后机器人重置到指定位置,将立方体带回工作空间中心附近。机械臂在二维平面内运动(图9中蓝色虚线区域),末端执行器高度固定在桌面上方,且夹具保持闭合状态(仅能通过推挤动作与立方体交互)。这些限制既出于探索安全性考虑,也为了缩小动作空间、减少环境建模所需的数据收集量。
为预热世界模型训练,我们使用随机动作收集的观测数据集(5万次交互,约24小时机器人运行时间)对所有智能体进行预训练。利用该数据集对每个世界模型和探索策略进行50万步预训练(世界模型和策略每步均更新)。
在图6(倒数第二个直方图)中,我们对比了预训练后Dreamer和FOCUS在真实场景中的对象重建误差。总体而言,相比Dreamer,FOCUS的隐式分割知识使其重建结果在动态一致性上更优。Dreamer在重建中偶尔会出现伪影(如图5最后一列所示),尤其是在对象与机械臂交互的轨迹中。
为评估FOCUS在真实机器人场景中的探索能力,我们对预训练模型进行1万步实时探索微调,每轮100步。对比对象与仿真实验相同的基线策略(P2E、APT和随机动作),结果如图9所示。与仿真实验一致,FOCUS的对象交互得分最高。由于真实场景设置更简单,FOCUS与其他基线的交互性能差距比仿真实验更小。微调阶段对象位置分布如图9右上角所示:FOCUS对工作空间的位置覆盖范围最大,且在中心区域集中度最高。
我们提出了FOCUS——一种以对象为中心的基于模型的智能体,其能主动发现与对象的交互,从而更高效地学习操作任务。在评估中,我们发现FOCUS不仅能解决更多稀疏奖励任务,且以对象为中心的表示普遍提升了对象预测和操作性能。
训练数据与计算成本:在探索实验中,智能体需与环境交互200万步,所有方法均需先学习足够的世界模型,使探索智能体能可靠地预测哪些动作可带来最大探索收益。实际上,FOCUS在50万步探索后才开始展现优于其他方法的优势。如此可观的训练步数使得在复杂真实环境中全面部署具有挑战性。尽管如此,探索方法仍可通过大幅简化环境(如限制动作空间(Pathak等人,2019)或采用高层级动作(Mazzaglia等人,2024))应用于真实场景。
多对象场景的可扩展性:FOCUS的主要局限在于处理多目标对象场景(如超过2个对象)时的可扩展性。由于模型依赖分割掩码分离每个对象的信息,每个对象的重建需要额外的输出映射(包括分割权重和RGB通道),这导致计算和内存占用显著增加。尽管性能提升,但该方案的可扩展性较差。未来研究可探索更高效的对象信息分离方法,例如深度潜在粒子(Daniel和Tamar,2022;Haramati等人,2024),在保留对象中心方法优势的同时降低计算需求。
无监督对象分割与动态建模:当前依赖预训练分割模型(如fastSAM)获取掩码,未来可探索无监督或自监督对象分割技术,使模型在无人工标注的情况下自主学习对象边界,进一步提升真实场景适应性。
层次化对象交互规划:将对象中心表示与层次强化学习结合,实现从“对象发现”到“任务规划”的分层决策,例如先识别可交互对象,再基于其物理特性规划操作策略(如抓取优先级、力控制模式)。
跨场景迁移学习:利用对象中心表示的泛化性,探索不同操作任务间的知识迁移(如从积木堆叠迁移至餐具摆放),减少新任务的训练样本需求。
FOCUS通过将世界建模为对象及其交互关系,为强化学习中的机器人操作提供了新范式。实验表明,以对象为中心的世界模型和探索策略显著提升了稀疏奖励场景下的学习效率,且在真实机器人平台上验证了其可行性。尽管存在计算复杂度和多对象扩展性挑战,该方法为具身智能中“如何让机器像人类一样理解对象”提供了重要思路,有望推动机器人从“执行预设动作”向“自主探索-推理-决策”的进阶。
阅读最新前沿科技趋势报告,请访问欧米伽研究所的“未来知识库”
https ://wx. zsxq.com/group/454854145828
未来知识库是“欧米伽未来研究所”建立的在线知识库平台,收藏的资料范围包括人工智能、脑科学、互联网、超级智能,数智大脑、能源、军事、经济、人类风险等等领域的前沿进展与未来趋势。目前拥有超过8000篇重要资料。每周更新不少于100篇世界范围最新研究资料。欢迎扫描二维码或访问https ://wx. zsxq.com/group/454854145828进入。
截止到3月31日”未来知识库”精选的百部前沿科技趋势报告
(加入未来知识库,全部资料免费阅读和下载)
牛津未来研究院《将人工智能安全视为全球公共产品的影响、挑战与研究重点》
麦肯锡:超级智能机构:赋能人们释放人工智能的全部潜力
AAAI2025关于人工智能研究未来研究报告
斯坦福:2025斯坦福新兴技术评论:十项关键技术及其政策影响分析报告(191页)
壳牌:2025能源安全远景报告:能源与人工智能(57页)
盖洛普&牛津幸福研究中心:2025年世界幸福报告(260页)
Schwab:2025未来共生:以集体社会创新破解重大社会挑战研究报告(36页)
IMD:2024年全球数字竞争力排名报告:跨越数字鸿沟人才培养与数字法治是关键(214页)
DS系列专题:DeepSeek技术溯源及前沿探索,50页ppt
联合国人居署:2024全球城市负责任人工智能评估报告:利用AI构建以人为本的智慧城市(86页)
TechUK:2025全球复杂多变背景下的英国科技产业:战略韧性与增长路径研究报告(52页)
NAVEXGlobal:2024年十大风险与合规趋势报告(42页)
《具身物理交互在机器人-机器人及机器人-人协作中的应用》122页
2025-2035年人形机器人发展趋势报告53页
EvaluatePharma:2024年全球生物制药行业展望报告:增长驱动力分析(29页)
【AAAI2025教程】基础模型与具身智能体的交汇,350页ppt
Tracxn:2025全球飞行汽车行业市场研究报告(45页)
谷歌:2024人工智能短跑选手(AISprinters):捕捉新兴市场AI经济机遇报告(39页)
【斯坦福博士论文】构建类人化具身智能体:从人类行为中学习
《基于传感器的机器学习车辆分类》最新170页
美国安全与新兴技术中心:2025CSET对美国人工智能行动计划的建议(18页)
罗兰贝格:2024人形机器人的崛起:从科幻到现实:如何参与潜在变革研究报告(11页)
兰德公司:2025从研究到现实:NHS的研究和创新是实现十年计划的关键报告(209页)
康桥汇世(CambridgeAssociates):2025年全球经济展望报告(44页)
国际能源署:2025迈向核能新时代
麦肯锡:人工智能现状,组织如何重塑自身以获取价值
威立(Wiley):2025全球科研人员人工智能研究报告(38页)
牛津经济研究院:2025TikTok对美国就业的量化影响研究报告:470万岗位(14页)
国际能源署(IEA):能效2024研究报告(127页)
Workday:2025发挥人类潜能:人工智能(AI)技能革命研究报告(20页)
CertiK:Hack3D:2024年Web3. 0安全报告(28页)
世界经济论坛:工业制造中的前沿技术:人工智能代理的崛起》报告
迈向推理时代:大型语言模型的长链推理研究综述
波士顿咨询:2025亚太地区生成式AI的崛起研究报告:从技术追赶者到全球领导者的跨越(15页)
安联(Allianz):2025新势力崛起:全球芯片战争与半导体产业格局重构研究报告(33页)
IMT:2025具身智能(EmbodiedAI)概念、核心要素及未来进展:趋势与挑战研究报告(25页)
IEEE:2025具身智能(EmbodiedAI)综述:从模拟器到研究任务的调查分析报告(15页)
CCAV:2025当AI接管方向盘:自动驾驶场景下的人机交互认知重构、变革及对策研究报告(124页)
《强化学习自我博弈方法在兵棋推演分析与开发中的应用》最新132页
《面向科学发现的智能体人工智能:进展、挑战与未来方向综述》
全国机器人标准化技术委员会:人形机器人标准化白皮书(2024版)(96页)
美国国家科学委员会(NSB):2024年研究与发展-美国趋势及国际比较(51页)
艾昆纬(IQVIA):2025骨科手术机器人技术的崛起白皮书:创新及未来方向(17页)
NPL&Beauhurst:2025英国量子产业洞察报告:私人和公共投资的作用(25页)
IEAPVPS:2024光伏系统经济与技术关键绩效指标(KPI)使用最佳实践指南(65页)
AGI智能时代:2025让DeepSeek更有趣更有深度的思考研究分析报告(24页)
2025军事领域人工智能应用场景、国内外军事人工智能发展现状及未来趋势分析报告(37页)
华为:2025鸿蒙生态应用开发白皮书(133页
《超级智能战略研究报告》
中美技术差距分析报告2025
欧洲量子产业联盟(QuIC):2024年全球量子技术专利态势分析白皮书(34页)
美国能源部:2021超级高铁技术(Hyperloop)对电网和交通能源的影响研究报告(60页)
罗马大学:2025超级高铁(Hyperloop):第五种新型交通方式-技术研发进展、优势及局限性研究报告(72页)
兰德公司:2025灾难性网络风险保险研究报告:市场趋势与政策选择(93页)
GTI:2024先进感知技术白皮书(36页)
AAAI:2025人工智能研究的未来报告:17大关键议题(88页)
安联Allianz2025新势力崛起全球芯片战争与半导体产业格局重构研究报告
威达信:2025全球洪水风险研究报告:现状、趋势及应对措施(22页)
兰德公司:迈向人工智能治理研究报告:2024EqualAI峰会洞察及建议(19页)
哈佛商业评论:2025人工智能时代下的现代软件开发实践报告(12页)
德安华:全球航空航天、国防及政府服务研究报告:2024年回顾及2025年展望(27页)
奥雅纳:2024塑造超级高铁(Hyperloop)的未来:监管如何推动发展与创新研究报告(28页)
HSOAC:2025美国新兴技术与风险评估报告:太空领域和关键基础设施(24页)
Dealroom:2025欧洲经济与科技创新发展态势、挑战及策略研究报告(76页)
《无人机辅助的天空地一体化网络:学习算法技术综述》
谷歌云(GoogleCloud):2025年AI商业趋势白皮书(49页)
《新兴技术与风险分析:太空领域与关键基础设施》最新报告
150页!《DeepSeek大模型生态报告》
军事人工智能行业研究报告:技术奇点驱动应用加速智能化重塑现代战争形态-250309(40页)
真格基金:2024美国独角兽观察报告(56页)
璞跃(PlugandPlay):2025未来商业研究报告:六大趋势分析(67页)
国际电工委员会(IEC):2025智能水电技术与市场展望报告(90页)
RWS:2025智驭AI冲击波:人机协作的未来研究报告(39页)
国际电工委员会(IEC):2025智能水电技术与市场展望报告(90页)
RWS:2025智驭AI冲击波:人机协作的未来研究报告(39页)
未来今日研究所2025年科技趋势报告第18版1000页
模拟真实世界:多模态生成模型的统一综述
中国信息协会低空经济分会:低空经济发展报告(2024-2025)(117页)
浙江大学:2025语言解码双生花:人类经验与AI算法的镜像之旅(42页)
人形机器人行业:由“外”到“内”智能革命-250306(51页)
大成:2025年全球人工智能趋势报告:关键法律问题(28页)
北京大学:2025年DeepSeek原理和落地应用报告(57页)
欧盟委员会人工智能与未来工作研究报告
加州大学伯克利分校:面向科学发现的多模态基础模型:在化学、材料和生物学中的应用
电子行业:从柔性传感到人形机器人触觉革命-250226(35页)
RT轨道交通:2024年中国城市轨道交通市场数据报告(188页)
FastMoss:2024年度TikTok生态发展白皮书(122页)
CheckPoint:2025年网络安全报告-主要威胁、新兴趋势和CISO建议(57页)
【AAAI2025教程】评估大型语言模型:挑战与方法,199页ppt
《21世纪美国的主导地位:核聚变》最新报告
沃尔特基金会(VoltaFoundation):2024年全球电池行业年度报告(518页)
斯坦福:2025斯坦福新兴技术评论:十项关键技术及其政策影响分析报告(191页)
国际科学理事会:2025为人工智能做好国家研究生态系统的准备-2025年战略与进展报告(英文版)(118页)
光子盒:2025全球量子计算产业发展展望报告(184页)
奥纬论坛:2025塑造未来的城市研究报告:全球1500个城市的商业吸引力指数排名(124页)
FutureMatters:2024新兴技术与经济韧性:日本未来发展路径前瞻报告(17页)
《人类与人工智能协作的科学与艺术》284页博士论文
《论多智能体决策的复杂性:从博弈学习到部分监控》115页
《2025年技术展望》56页slides
大语言模型在多智能体自动驾驶系统中的应用:近期进展综述
【牛津大学博士论文】不确定性量化与因果考量在非策略决策制定中的应用
皮尤研究中心:2024美国民众对气候变化及应对政策的态度调研报告:气候政策对美国经济影响的多元观点审视(28页)
空间计算行业深度:发展趋势、关键技术、行业应用及相关公司深度梳理-250224(33页)
Gartner:2025网络安全中的AI:明确战略方向研究报告(16页)
北京大学:2025年DeepSeek系列报告-提示词工程和落地场景(86页)
北京大学:2025年DeepSeek系列报告-DeepSeek与AIGC应用(99页)
CIC工信安全:2024全球人工智能立法的主要模式、各国实践及发展趋势研究报告(42页)
中科闻歌:2025年人工智能技术发展与应用探索报告(61页)
AGI智能时代:2025年Grok-3大模型:技术突破与未来展望报告(28页)
上下滑动查看更多


文章作者: ZejunCao
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 ZejunCao !
  目录