据3日最新报道,由于现有军用飞机成本的飙升及飞行软件的进步,美国空军正在研发新一代、更实惠的喷气式战斗机飞机,而其法宝正是——AI飞行员。就在一周前,五角大楼官员证实,在新一轮巴以冲突爆发后,美军已开始使用AI识别袭击目标并摧毁它们。据报道,这是有史以来首次有官方证实,被运用到现代战争中的AI技术。美军首次承认正用AI打击“敌方目标”一天内帮助美军锁定85个目标,据央广军事报道,当地时间2月26日,美国中央司令部首席技术官斯凯勒·摩尔证实,美军2月对中东多个地区的空袭中,使用了人工智能(AI)系统来帮助确定打击目标,其中包括2月3日对伊拉克和叙利亚境内反美武装进行大规模报复的行动。
▲相关报道截图
负责中东军事活动的斯凯勒·摩尔透露,能够自我学习识别物体的机器学习算法在美军中东行动中发挥了关键作用。仅2月2日一天内,AI系统就帮助美军确定了85次在中东的空袭目标。其中包括美国轰炸机和战斗机对伊拉克和叙利亚境内的7处设施进行了空袭。五角大楼证实,上述袭击完全摧毁或至少破坏了当地的火箭、导弹、无人机储存设施和民兵行动中心。摩尔在接受采访时表示:“我们一直在使用计算机视觉来识别可能存在威胁的地方。”她指出,在过去的60天到90天里,“我们有了更多机会来瞄准目标”,特别是正在中东地区寻找敌对势力部署的大量火箭发射器。
▲资料图
根据她的说法,AI系统帮助识别了也门胡塞武装的火箭发射器和红海的水面舰艇。美国中央司令部曾在2月多次证实对胡塞武装目标进行了空袭,摧毁了多枚导弹及多艘无人水面舰艇。报道指出,虽然美国军方此前已经承认正使用AI进行情报收集,但摩尔的声明首次证实,美国军方正使用这种技术识别和打击敌方目标。酝酿6年之久,美军王牌AI工具在巴以冲突后被正式启用
据报道,这一瞄准打击目标的机器学习算法隶属于五角大楼在2017年启动的“Project Maven”,该项目被认为是五角大楼最重要的AI工具,专门用于分析无人机捕获的图像和全动态视频,并自主识别潜在目标。据报道,Maven项目的核心是需要美国军方使用谷歌的AI技术来分析无人机镜头和旗帜图像,以供进一步的人工审查。然而,该项目在谷歌员工中引起了轩然大波。2018年,数千名谷歌员工发起联名抗议,要求谷歌终止与五角大楼的合作关系。几个月后,谷歌决定不再与五角大楼续签于2019年到期的合同。
▲“Project Maven”系统画面
然而摩尔透露,谷歌退出后,五角大楼并未停止使用人工智能算法和通过卫星生成的图像的实验。过去一年,美军方一直在通过一系列数字演习测试这项技术。而在2023年10月7日哈马斯对以色列发动袭击后,美国军方加大了对AI工具的使用,正式在实际行动中启用了这一定位算法。她补充道,经过一年的数字演习,美军能够“相当无缝地转换”到使用Maven。“10月7日,一切都变了。”摩尔说道。“我们立即转入高速运转,行动节奏比以前快得多。”有分析指出,Maven在战争中的作用不仅仅是目标识别,它通过分析大量数据来识别部队动向和潜在威胁,从而实现战场空间感知。不仅如此,Maven还可以通过分析复杂的数据集来预测供应需求和优化部队部署,从而帮助后勤和规划。这意味着,人工智能正在改变现代战争的“游戏规则”。
▲相关报道截图
与此同时,美国并非唯一一个实现“这一飞跃”的国家。以色列军方此前也曾表示,正在使用人工智能在加沙制定目标。乌克兰也称,在美国的帮助下使用AI系统击退俄罗斯军队的进攻。据知情人士透露,自俄乌冲突爆发后,美国利用卫星情报和Maven系统向乌克兰军队提供俄罗斯装备的位置,乌克兰军队随后用GPS制导导弹瞄准这些装备。其中一名知情人士表示,援助基辅的同时也帮助五角大楼的AI工具更加精进。据另一位了解Maven开发情况的匿名人士透露,在支援乌克兰的前10个月里,Maven进行了50多轮改进。AI与战争“日益融合”或带来灾难性前景联合国秘书长多次对AI武器发出警告
然而,人工智能与战争的“日益融合”带来了许多挑战和担忧,引导AI技术从实验室过渡到战场是各国军事领导人面临的最棘手的问题之一。认可应迅速采用AI的人认为,现代战场上的战斗“很快就会以人类大脑无法跟上的速度发生”。但一些技术专家担心,现有的网络和数据还不足以应对这种情况,前线部队也不愿将自己的生命托付给“不确定是否有效的电脑软件”。伦理学家则担心,把可能致命的决定交给机器会带来灾难性的前景。摩尔强调道,Maven的人工智能功能是被用来帮助发现潜在目标,而不是用来验证或部署武器来对付目标。她表示,在去年年底的演习中,美国中央司令部试验了一个人工智能推荐引擎,结果表明,此类系统在建议进攻顺序或最佳武器使用方面“经常达不到”人类的要求。
▲资料图
因此,军方人员会不断审查和验证人工智能系统的目标建议,并就如何进行攻击和使用何种武器提出建议。“从来没有一种算法只是运行,得出结论,然后推进下一步,”她说。“涉及人工智能的每一步都有一个人在最后检查。”但据最新报道,美国已打算扩大其算法系统的自主权。美国国防部去年发布了一项指令,指示指挥官和操作员在使用武力时进行“适当程度的人类判断”,这表明官员们可能认为人类监督而非发起决策,是足够的。对于那些反对赋予机器杀人自由裁量权的活动人士而言,这是一个“重大的危险信号”。由人权和专家团体组成的“停止杀手机器人(Stop Killer Robots)”联盟表示,美国目前的承诺“远远达不到”足够的保障措施。联合国秘书长古特雷斯2019年曾表示:“在没有人类参与的情况下,拥有夺取生命的权利和自由裁量权的机器在道德上令人反感,在政治上也不可接受,应该被禁止。”去年,古特雷斯再次对AI武器发出警告,称“完全无法允许”开发不基于人类判断实施攻击的人工智能(AI)武器,强调当务之急是监管。
版權所有:[1998]中國徐悲鴻畫院
总访问量:18110196 |