5.5 人在回路(Human-in-the-Loop, HITL)

人在回路是一种 AI 系统设计模式,在关键决策点引入人工确认。AI 负责执行,人类负责决策——在自动化效率和决策安全之间找到平衡。

5.5.1 人工介入触发条件

不是所有操作都需要人工介入。判断是否需要 HITL,可以从以下维度考虑:

维度 高风险(需人工) 低风险(可自动)
错误后果 不可逆、高损失 可回滚、低影响
AI 置信度 < 0.8 >= 0.95
任务复杂度 多因素、需判断 规则明确
合规要求 涉及监管 无特殊要求

置信度分层是常用的触发策略:

置信度 >= 0.95 → 自动执行
置信度 0.80-0.94 → 人工复核
置信度 < 0.80 → 升级处理或拒绝

这种方法的效果: - 减少误报和漏报高达 50% - 长期准确率可达 98-99% - 随着系统从人工反馈中学习,人工工作量持续降低

人在回路决策树

5.5.2 审批流程设计

常见的 HITL 交互模式:

审批确认模式:AI 生成方案,人工决定是否执行

AI: 即将执行数据库备份操作,预计耗时30分钟。
    [确认执行] [取消] [稍后提醒]

编辑修正模式:AI 生成初稿,人工编辑后继续

AI: 以下是投资建议初稿,请您审阅并修改:
    [建议内容]
    [继续] [编辑后继续] [重新生成]

信息补充模式:AI 遇到不确定情况,请求补充信息

AI: 分析过程中需要确认以下信息:
    1. 您的风险偏好等级是?
    2. 投资期限预期多长?

审批流程设计要点: - 清晰的上下文:让审批者了解当前状态和操作影响 - 明确的选项:提供清晰的决策选项 - 合理的超时:设置默认行为或自动提醒

5.5.3 责任边界划分

HITL 系统中,AI 和人类的责任需要清晰划分:

AI 负责 人类负责
数据处理、模式识别 创造性判断、伦理决策
重复性、标准化任务 最终审批、合规确认
实时监控、初筛 异常情况最终裁定
方案生成、建议 战略方向、价值判断

核心原则:AI 作为工具,人类作为最终责任主体

这意味着: - AI 的输出是建议,不是决定 - 人工复核是流程必经步骤 - 出现问题时可追溯决策链条 - 人类对最终结果负责

重要合规要求

在金融行业,许多操作有监管合规要求。投资建议必须符合投资者适当性原则,大额交易需要授权审批。HITL 不仅是技术选择,往往也是合规必需。设计系统时要了解相关法规要求。

5.5.4 人机协作效率优化

HITL 引入了人工环节,可能影响效率。优化策略包括:

使用主动学习:只在模型不确定时请求人工输入,减少不必要的干预

建立反馈循环:收集人类纠正数据,定期优化模型,提升 AI 自主能力

优化审批界面: - 提供清晰的上下文信息 - 预设选项减少输入成本 - 支持批量审核操作(当多个相似请求在短时间内累积时,可合并为一次审批)

监控关键指标: - 上报频率(应逐渐降低) - 响应时间 - 用户满意度 - 决策一致性

渐进式自动化路径

第一阶段:HITL(保守)
    所有决策需人工确认

第二阶段:HITL(优化)
    低风险自动执行,中高风险人工确认

第三阶段:HOTL(监督)
    Human-on-the-Loop(人在环外监督)
    大部分自动执行,人工监控异常,只在系统告警时介入

第四阶段:自适应自动化
    系统自动调整阈值,人工只处理复杂情况

案例 5E:大额交易人工审批(HITL)

要素 说明
演示模式 人在回路(Human-in-the-Loop)
案例简述 当交易建议金额超过阈值时,触发 AskUserQuestion 请求人工确认。体验关键决策点的人机协作机制。
经济学映射 决策权配置——高风险决策保留人类最终决定权
应用衔接 第 12 章信号分析、第 13 章研报生成的关键节点均设置人工审批

实践步骤

模拟一个需要人工确认的场景:

请帮我分析一个投资方案:
计划投资金额:80万元
投资标的:某科技股ETF
当前账户资产:100万元

观察 AI 如何识别这是一个高风险决策(单笔金额大、仓位比例高),并触发人工确认:

AI: 检测到高风险投资请求,需要您的确认:

决策要点:
- 投资金额:80万元(占账户80%)
- 风险等级:中高风险
- 流动性:ETF流动性良好,可随时赎回

风险提示:
- 仓位集中度较高,波动风险大
- 建议分批建仓,降低择时风险

请确认您的选择:
[确认全额投资] [调整为分批投资] [取消]

用户确认后,记录决策链条以便审计追溯。