5.5 人在回路(Human-in-the-Loop, HITL)
人在回路是一种 AI 系统设计模式,在关键决策点引入人工确认。AI 负责执行,人类负责决策——在自动化效率和决策安全之间找到平衡。
5.5.1 人工介入触发条件
不是所有操作都需要人工介入。判断是否需要 HITL,可以从以下维度考虑:
| 维度 | 高风险(需人工) | 低风险(可自动) |
|---|---|---|
| 错误后果 | 不可逆、高损失 | 可回滚、低影响 |
| AI 置信度 | < 0.8 | >= 0.95 |
| 任务复杂度 | 多因素、需判断 | 规则明确 |
| 合规要求 | 涉及监管 | 无特殊要求 |
置信度分层是常用的触发策略:
置信度 >= 0.95 → 自动执行
置信度 0.80-0.94 → 人工复核
置信度 < 0.80 → 升级处理或拒绝
这种方法的效果: - 减少误报和漏报高达 50% - 长期准确率可达 98-99% - 随着系统从人工反馈中学习,人工工作量持续降低

5.5.2 审批流程设计
常见的 HITL 交互模式:
审批确认模式:AI 生成方案,人工决定是否执行
AI: 即将执行数据库备份操作,预计耗时30分钟。
[确认执行] [取消] [稍后提醒]
编辑修正模式:AI 生成初稿,人工编辑后继续
AI: 以下是投资建议初稿,请您审阅并修改:
[建议内容]
[继续] [编辑后继续] [重新生成]
信息补充模式:AI 遇到不确定情况,请求补充信息
AI: 分析过程中需要确认以下信息:
1. 您的风险偏好等级是?
2. 投资期限预期多长?
审批流程设计要点: - 清晰的上下文:让审批者了解当前状态和操作影响 - 明确的选项:提供清晰的决策选项 - 合理的超时:设置默认行为或自动提醒
5.5.3 责任边界划分
HITL 系统中,AI 和人类的责任需要清晰划分:
| AI 负责 | 人类负责 |
|---|---|
| 数据处理、模式识别 | 创造性判断、伦理决策 |
| 重复性、标准化任务 | 最终审批、合规确认 |
| 实时监控、初筛 | 异常情况最终裁定 |
| 方案生成、建议 | 战略方向、价值判断 |
核心原则:AI 作为工具,人类作为最终责任主体。
这意味着: - AI 的输出是建议,不是决定 - 人工复核是流程必经步骤 - 出现问题时可追溯决策链条 - 人类对最终结果负责
在金融行业,许多操作有监管合规要求。投资建议必须符合投资者适当性原则,大额交易需要授权审批。HITL 不仅是技术选择,往往也是合规必需。设计系统时要了解相关法规要求。
5.5.4 人机协作效率优化
HITL 引入了人工环节,可能影响效率。优化策略包括:
使用主动学习:只在模型不确定时请求人工输入,减少不必要的干预
建立反馈循环:收集人类纠正数据,定期优化模型,提升 AI 自主能力
优化审批界面: - 提供清晰的上下文信息 - 预设选项减少输入成本 - 支持批量审核操作(当多个相似请求在短时间内累积时,可合并为一次审批)
监控关键指标: - 上报频率(应逐渐降低) - 响应时间 - 用户满意度 - 决策一致性
渐进式自动化路径:
第一阶段:HITL(保守)
所有决策需人工确认
第二阶段:HITL(优化)
低风险自动执行,中高风险人工确认
第三阶段:HOTL(监督)
Human-on-the-Loop(人在环外监督)
大部分自动执行,人工监控异常,只在系统告警时介入
第四阶段:自适应自动化
系统自动调整阈值,人工只处理复杂情况
案例 5E:大额交易人工审批(HITL)
| 要素 | 说明 |
|---|---|
| 演示模式 | 人在回路(Human-in-the-Loop) |
| 案例简述 | 当交易建议金额超过阈值时,触发 AskUserQuestion 请求人工确认。体验关键决策点的人机协作机制。 |
| 经济学映射 | 决策权配置——高风险决策保留人类最终决定权 |
| 应用衔接 | 第 12 章信号分析、第 13 章研报生成的关键节点均设置人工审批 |
实践步骤:
模拟一个需要人工确认的场景:
请帮我分析一个投资方案:
计划投资金额:80万元
投资标的:某科技股ETF
当前账户资产:100万元
观察 AI 如何识别这是一个高风险决策(单笔金额大、仓位比例高),并触发人工确认:
AI: 检测到高风险投资请求,需要您的确认:
决策要点:
- 投资金额:80万元(占账户80%)
- 风险等级:中高风险
- 流动性:ETF流动性良好,可随时赎回
风险提示:
- 仓位集中度较高,波动风险大
- 建议分批建仓,降低择时风险
请确认您的选择:
[确认全额投资] [调整为分批投资] [取消]
用户确认后,记录决策链条以便审计追溯。