网站《福布斯》 10月28日报道称,人工智能现在是美国空军“杀伤链”的一部分。
[美国空军的分布式地面站]
美国空军最近透露,首次使用人工智能帮助确定目标。事实证明,这不仅仅是一个测试:人工智能已经嵌入到美国空军的目标定位操作中,引起人们提出了严肃的问题。
美国空军部长弗兰克肯德尔在马里兰州国家港举行的空军协会航空、航天和网络会议上表示,美国空军“首次将人工智能算法部署到实战杀伤链中”。他没有透露袭击的细节,是由无人机还是有人驾驶飞机实施的,以及是否有平民伤亡。
“杀伤链”是指分析各传感器采集的数据,选择目标,规划实施打击,评估结果的全过程。人工智能减轻了人类分析师的一些负担,他们过去常常花费数千小时搜索视频片段,试图找到、定位和确定目标。这项技术现在已经投入使用。
“这些初始目标识别算法可用于分布式地面站,以增强情报行动,”美国空军发言人告诉作者。“分布式地面站”是美国空军“分布式通用地面系统”的27个地理上分散的单元,是其情报收集行动的大脑,处理从计划和指导、收集、处理和利用到分析和传播的情报工作的各个阶段。
【美国空军分布式地面站的DCGS概念】。
这项工作涉及筛选大量数据:平均每天有50架无人机生成超过1200小时的视频,外加数千张静止图像和信号情报。U-2或RQ-4全球鹰任务产生的信息需要由45名情报人员处理。MQ-9死神需要8名情报人员。随着更先进的传感器产生的数据比以往任何时候都多,美国空军希望用人工智能来承担部分工作负担。虽然现在人工智能已经介入这项工作,但人类仍然在很大程度上控制着局面。美国空军发言人说:“人类情报专业人员是决策者。
长期以来,人们一直担心使用人工智能来达到这个目的。与常见的“将军释放自动杀人机器”的噩梦场景不同,人们担心机器会找到目标,将杀人任务委托给人类。2018年,谷歌的员工迫使该公司放弃参与五角大楼的Maven项目,该项目致力于计算机视觉算法的研究,并帮助分析师开展反叛乱和反恐行动。这些项目的存在意味着美国空军的行动不足为奇。
联合国裁军研究所的Arthur Holland告诉本文作者:“近年来,人们在开发基于人工智能的寻找目标支持系统方面做了大量工作。”霍兰德说,虽然可能有些人有责任,但使用人工智能向情报专业人员提供数据已经造成了许多问题。人工智能是如何测试和验证的?运营商如何知道什么时候该相信AI的判断?而当因为人工智能的失误而发起致命打击时,谁来承担责任?
即使是手动操作也会造成可怕的错误,例如最近在喀布尔发生的无人机袭击,造成10名无辜者死亡,其中包括7名儿童。分析人士认为,他们看到炸药被放置在汽车后部,当时汽车实际上装满了水。如果AI做出判断,责任可能会变得模糊。问题在于设计人工智能的人,信任人工智能的分析师,或者发射导弹的飞行员。
荷兰担心,美国对超视距攻击的重视,意味着美军将更加重视远程情报收集,AI将发挥更大作用。霍兰德说:“由于‘超视距’作战可能缺乏地面人员和地面基础设施,在打击前无法帮助确认目标的身份或位置,因此有可能使用瞄准软件来填补这一空白。”
这有可能会开始减少人类对杀戮链的参与。
伦敦国王学院战争研究讲师杰克麦克唐纳(Jack MacDonald)告诉作者:“如果人工智能系统正在标记目标,尤其是在时间敏感的情况下,你将依赖系统运行,从而改变人们的控制。”
当情报人员试图跟上数据洪流时,他们可能没有时间检查一切。结果是根据AI的判断发动攻击,或者看着目标逃跑。然而,麦克唐纳认为,像飞行员和无人机一样,没有人希望看到机器取代他们的位置。麦克唐纳说:“军队中会有很多专业人士抵制完全自动化,他们在使用致命武力时非常清楚自己的责任。”
[美国空军的一个控制中心]
美国空军将人工智能视为提升人类能力、提高决策能力的工具。但是,由于很多AI系统存在偏见,很容易犯自己的错误。
不管反对意见是什么,人工智能现在是美国空军目标定位机制的一部分。目前可能作用不大,但随着需求的增加和技术的提高,这种作用可能会扩大。
作者:微胖
版权稿件,未经许可禁止转载
文章内容系作者观点,不代表本报立场
内容来源网络,如有侵权,联系删除,本文地址:https://www.230890.com/zhan/57996.html