仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接
Agent为何需要「认知哲学」?
当前AI(如ChatGPT)已能自主规划旅行、科研协作,但根本矛盾暴露:
行为随机性:为什么有时疯狂调用搜索工具,有时又自信满满地胡说八道?
效率黑洞:80%的工具调用可能是无效的(如已知天气仍查天气预报)
论文:TowardaTheoryofAgentsasTool-UseDecision-Makers链接:https ://arxiv. org/pdf/2506. 00886
论文指出:缺乏认知地基!就像人类需要理解「我知道什么/该怎么做」,AI也需要明确的认知框架。
“真正的自主性要求Agent扎根于认知框架——明确知道什么、需要知道什么、如何高效获取知识。”
传统认为:推理(想)→行动(做)是线性流程。本文提出革命性等式:
推理=内部认知工具行动=外部物理工具两者本质都是「知识获取工具」
生活化类比:
当你心算“15×15”→调用内部计算工具(推理)
当你用计算器→调用外部设备工具(行动)
打破「想」与「做」的等级制,让AI自由选择最高效路径。
知识边界(KnowledgeBoundary):
=AI当前知道/不知道的分界线公式意义:世界知识全集被拆分为「已知」和「待获取」举例:GPT-4知道2024奥运在巴黎(已知),但不知道2032在哪(待查)。
决策边界(DecisionBoundary):
=决定「用脑」还是「用手」的临界点理想状态:两条边界完全重合→该想时想,该查时查
反例:
边界错位1:知识边界内却调用工具→效率低下(如知道1+1=2仍查计算器)
边界错位2:知识边界外却强行推理→幻觉撒谎(如瞎编2032奥运主办国)
论文分析四种行为模式:
行为模式
典型表现
问题
内外工具滥用
疯狂搜索+长篇大论
耗能高、错误传导
只爱动手(工具依赖)
遇事不决就查API
扼杀AI进化潜能
尽量自主推理,少用工具
可能错过捷径
训练难度极高
最优智能体=极简主义者目标:用最少工具调用(无论内外)完成任务,像高手「四两拨千斤」
训练革命:Next-Tool预测传统AI学接龙文字(Next-Token),新一代需学接龙工具(Next-Tool)→把「何时调用工具」变成可学习技能
对齐黑科技
监督微调:给工具使用打标签(例:教AI“这类问题该查资料”)
强化学习:奖励「正确+省步骤」行为(如OTC-PO算法惩罚多余工具调用)
自进化提示工程如Alita框架让AI自己设计工作流,像人类总结“秘籍”越用越精
当前99%的AI训练只关注结果对错,不管过程多蠢!
视觉Agent:看懂画面缺口(如“冰箱没牛奶”)→自动触发购物工具
具身Agent:机器人身体=终极「外部工具」,物理行动补全知识
多AI协作:各AI共享「知识地图」,像人类团队分工查漏补缺
“AI的智能不在行动频率,而在知道何时思考/何时行动。”——这将塑造更安全、可靠、类人的AI。
备注:昵称-学校/公司-方向/会议(eg. ACL),进入技术/投稿群
id:DLNLPer,记得备注呦