最近拜读了一篇文章《Advances and Challenges in Foundation Agents》,介绍的手术机器人协作系统。在这个系统里,AI 凭借技术进行实时病理分析,通过精密算法规划器械路径;人类则牢牢把控关键决策,如确定血管切割点,并在异常情况发生时及时介入。作为一个计划人,尝试畅想下计划领域下AI和计划员协作模式。
一、AI下的计划:众星捧月
将上述协作模式迁移到计划领域,基础形态是“AI 分析,人做决策”。面对集成计划中多角色信息协同与多约束考量的复杂需求,可拓展为“多AI 分析,人做决策”。进一步深入,由于多AI 分析必然涉及AI 之间的协作,由此形成“多AI 分析,多AI 博弈,人做决策” 的进阶模式。
在此模式下,AI 发挥强大的数据处理与分析能力,快速整合信息并模拟推演;多AI 博弈促使不同策略相互碰撞,挖掘更优解;人类凭借经验、判断力和创造力,从众多方案中敲定最终决策。
不负责任的瞎想,未来是否会出现AI众星捧月,计划员独宠某一个AI的情况?
二、角色:人是裁判员还是上帝
在多AI 协作与人机协作体系中,人既可以是“裁判员”,也可以是“上帝”。若将人比作裁判员,AI 便是运动员,人负责制定规则,AI 依照规则“竞技”,过程中人适度干预,以达成理想结果;若把人视为上帝,那么人创造AI 后,更多时候选择放手,仅在必要时刻对AI 世界进行摧毁与重塑。
当人在计划中担任裁判时,需对AI 行为进行大量干预。以企业生产计划为例,裁判式的人要制定详细的AI 运行规则,规范其对生产流程、资源分配等方面的分析逻辑,同时自身也要接受监督考核,保证决策公正合理。值得注意的是,在多AI 博弈过程中,可能出现局部最优的困境。这时候可能还需要一个高层次的AI,类似”球队队长”, 不参与具体分析和博弈,而是站在全局视角,监控各AI 的博弈过程,当发现整体策略陷入局部最优时,及时进行引导和协调,辅助人类做出更科学的决策
若人以“上帝” 角色入局,工作重心则转向AI 创建,着重设定AI 源头规则,给予其较大行为自由。在创新性计划场景中,上帝式的人仅设定基本准则与方向,让AI 自由探索,只有当AI 发展严重偏离预期时,才采取极端干预措施。
您觉得计划中,人的角色是什么?
三、问题的关键是突破协同的关键问题
无论人选择成为裁判员还是上帝,都需解决几个核心问题。
其一,解决AI与AI协作的紧迫度高于AI与人,因为前者是基础,后者更多是伦理和假设。不同AI 基于各异的算法与目标运行,需要深入研究高效的AI 通信协议、协同算法,构建合理的利益分配与约束机制,避免它们在协作中产生冲突,实现整体最优。
其二,人的能力要求。作为裁判员,人需精通AI 技术原理,具备制定科学规则与协调管理的能力;作为上帝,人要有前瞻性战略眼光与敏锐洞察力,既能设定合适的AI 发展规则,又能及时察觉潜在问题并果断处置。
四、计划员要做什么
本文并不想进一步设想,AI自主学习和决策能力不断增强之后的世界,未来是变化的,那可能是下一代六点钟太阳的思考重点。本文希望能聚焦,计划中人的自我定位,并基于定位来考虑,计划中的人,需要做什么来提升自己,需要了解什么来实现新模式下人的新定位。