Paul Scharre在Odd Lots播客中直言,自主武器的定义直接塑造军事策略。完全自主系统能自行选定目标。这跟半自主系统大不一样,后者只辅助人类决策。五角大楼已用AI处理海量数据辅助目标识别。根据Paul Scharre描述,Anthropic的AI工具正被美军用于规划对伊朗作战计划。这些工具嵌入Maven智能系统,帮助分析师消化复杂战场数据。AI不搞全自动化决策,全靠人类输入指引。Paul Scharre强调,人类深度介入审查AI输出,才能避开系统失灵风险。
美军AI应用正加速演进。Paul Scharre指出,AI提升数据处理能力,帮助理解战场并规划行动。五角大楼团队开发DoD Directive 3000.09,就是规范武器系统自治政策。他曾在国防部主导这项工作。AI工具集成现有系统,处理情报时人类全程把关。数据质量决定一切。Paul Scharre反复提醒,输入数据的准确性和彻底审核,直接影响军事打击效果。战场情报出错,AI再聪明也白搭。当前加密市场BTC报$72,705(24h +1.44%),ETH站上$2,234(24h +2.10%),AI概念热度不减军用场景更添不确定性。
人类监督是军AI底线。Paul Scharre警告,如果人类不真正参与,AI输出就不可靠。现在美军分析师手动复核每个环节。挑战在于验证AI处理的信息真伪。这平衡AI自治与人类控制。过度依赖AI易酿祸端。Paul Scharre的书《Army of None》详析这些风险。国际上对自主武器的定义分歧大,阻碍协议达成。军方策略因定义而变。AI融入现有武器系统,提升战略能力,却总需人类定调。