美西时间6月1日,据独立报报道,根据联合国安理会最近的一份报告显示,一架军用无人机可能在没有接到指令的情况下首次自动攻击人类。
图:独立报新闻标题截图
首例无人机自主杀人事件今年3月,根据联合国安理会发表的报告称,土耳其军事科技公司STM生产的人工智能无人机kargu2(卡古2)型四轴飞行器袭击了一名士兵。据悉,一名士兵是在试图撤退时,遭到一架kargu2型四旋翼无人机的攻击。但与此前的无人机攻击事件迥然不同的是,之前的无人机“斩首”也好,自爆也罢,都是执行位于后方的人发出的指令,而这次这架军用无人机可能在没有接到指令的情况下首次自动攻击人类。
图:kargu2型无人机
联合国报告指出:“后勤车队和撤退的哈夫塔附属部队士兵随后遭到无人驾驶作战飞机或STM kargu2型等致命自主武器系统的追捕和远程攻击。”
联合国安理会利比亚问题专家小组发布了一份长达548页的报告,该报告并未深入研究该事件是否造成了人员死亡的细节,但提出了一个问题,即全球在杀手式自主机器人尚未建成之前就禁止它们的努力或是徒劳的。
专家们指出,在过去的一年里,利比亚民族团结政府将哈夫塔附属部队(HAF)从利比亚首都的黎波里赶走,无人机可能从2020年1月就开始运作了。
研究人员呼:禁止攻击性自主武器其攻击方式大致类似于此(图源:youtube)
根据STM公司的产品介绍,kargu2型四旋翼无人机配有炸药并可对目标进行自杀式攻击。kargu2是一种完全意义上发射后不用管的无人机,它基于人工智能的“深度学习”能力,不仅能自主识别和分类攻击目标,还具有群集作战的能力,允许20架无人机协同攻击。
联合国专家在报告中写道:“这种致命自主武器系统被编程为攻击目标,不需要操作员和弹药之间的数据连接:实际上是一种真正的‘开火、遗忘和发现’能力。”
过去,许多机器人和人工智能研究人员,包括埃隆·马斯克(Elon Musk)、史蒂芬·霍金(Stephen Hawking)和诺姆·乔姆斯基(Noam Chomsky)等其他几位知名人士,都曾呼吁禁止攻击性自主武器,比如那些有可能根据编程搜索并杀死特定人员的武器。
致命自主武器有风险专家警告称,用于训练自主杀人机器人分类和识别公共汽车、汽车和平民等物体的数据集可能不够复杂或强大,人工智能(AI)系统可能会吸取错误的教训。他们还警告称,在机器学习中的黑匣子中,人工智能系统的决策过程往往是不透明的,这构成了一种真正的风险,即全自动军用无人机执行错误目标,其原因仍难以解开。
专门研究无人机的国家安全顾问扎卡里·卡伦伯恩(Zachary Kallenborn)认为,当几架这样的无人驾驶飞机进行通信和协调行动时出现问题的风险更大,比如在无人机群中。
卡伦伯恩在简报中写道:“沟通会产生级联错误的风险,一个单元的错误会被另一个单元分享。如果有人在自动袭击中丧生,这很可能是历史上已知的首个使用基于人工智能的自动武器进行杀人的案例。”
|