当前位置:首页 > 科技 > 空军

当前,人工智能技术融入武器装备的进程一直在加快。出于种种考虑,以往由人工智能赋能的武器装备,往往会采用“人在回路中”方式来操控。该方式的好处,就是始终把武器装备开火的“扳机”掌握在人手里,使高度自动化的武器装备不至于“自作主张”地去杀人。现在,这种格局正面临被打破的可能。

据国外媒体报道,一架军用无人机在没有接到任何指令的情况下自主发起对人类的袭击。

这架无人机被认为是土耳其军事科技公司STM生产的“Kargu-2”型无人机(以下简称“Kargu-2”)。据称,2020年3月,一架该型无人机在未接到任何指令情况下,袭击了利比亚“国民军”阵营正在撤退的士兵。

虽然相关消息仍待证实,但“Kargu-2”被认为确实具有这种能力。作为一种多旋翼无人机,“Kargu-2”外形较为简单,体重较轻,续航时间也不长,但它可携带3种不同弹头,分别用来打击人员、轻型车辆、建筑物、掩体以及部分装甲目标。

和其他无人机相同,“Kargu-2”配备有可见光相机和红外夜视仪,可人工控制,也可以预设航线自主飞行。

它又与以往无人机有着一些不同。据其生产厂家介绍,“Kargu-2”能通过机器学习方式,自主完成对目标的定位、跟踪、识别、分类;能通过敌我识别系统及面部识别能力,寻找特定的人;它还可借助摄像头和其他传感器利用地标进行导航,而不依赖全球卫星导航系统。

一款无人机同时具有这些能力,就意味着它已具备在操作员未下达指令情况下发起自主攻击的基本条件。

相关研究指出,这架自主发起对人类袭击的无人机按照编程攻击目标,不需要操作员用数据链控制弹药。从另一个角度来理解,这等于让自主武器装备掌握了自行开火的“扳机”。

报道所指的无人机是不是“Kargu-2”并不重要,重要的是它是否真的被赋予了自行决定开火的决策权力。

有专家认为,如果真的任由自主武器装备掌握最终生杀大权,这一做法很可能引发更多致命危险。

他们的理由有二:一方面,人工智能的学习是基于软件的算法来实施,通过向大型数据集学习来积累能力。这一过程中,客观上存在多种因素可导致结果错误。比如,数据集不够全面和复杂,就可能导致人工智能学到错误“课程”。这种对错误“课程”的学习,很可能使自主武器装备做出错误判断,并对错误目标发起攻击。

另一方面,人工智能决策的过程是不透明的。尤其在进入自主模式后,即使它决策错误也无法被及时发现。

更可怕的是,自主武器装备发动蜂群作战时,数十个单元之间会通过频繁通信来协调行动。这种情况下,一个自主武器装备的错误很可能会被更多“好学”的队友学会,那样就会构成更大威胁与风险。

有关专家认为,这次自主无人机的自发袭击可以看作一次对人类的预警。

人工智能技术在飞速发展,融入现代武器装备的进程不断加快,如何对待所谓的致命自主武器装备,也许真到了各国做出决定的时候了。

010160260000000000000000011200000000000000