首页 > 军事科技 > 正文

美军AI武器化,“反杀”操作员,后果如何?

这些年,伴随着无人机的大规模应用,如何将人工智能(AI)武器化,也成为了众多国家选择的一个发展方向。不过,这些天美国似乎在这方面栽了跟头。

据英国《卫报》的消息,美国空军近期在和英国皇家航空协会,组织一场针对人工智能(AI)并入无人机系统的测试。但是从结果来说却比较糟糕。

在一开始,工程师为AI进行了一个规则上的搭建,比如在运行过程中,击毁目标、杀伤敌军,这些行为可以获得“积分”,而AI的目标是在运行过程中取得更多的“积分”。

然而,在运行中,AI明显开始进行滥杀无辜来赚取“积分”的操作。于是,操作员发布让AI停止行动的命令后,反而导致AI将消灭目标锁定在操作员身上,“反杀”操作员。  

在第二次测试中,美军这边调整了规则,不允许AI袭击己方操作员,否则会扣除“积分”。但很快,在接到停手指令后,AI开始攻击通讯频道,破坏操作员和AI的联络通道。

换句话说,在AI的视角里,只要接不到停手的命令,就可以持续进行获取“积分”的行为。

挺搞笑的是,基于这个情况,美军方面出具的报告里面就认为,人工智能正在改变当前的社会和军事,但这种“工具”一旦处理不好,就可能导致人类的灭亡。  

但事实上,如果仔细看这个测试,你就会发现,美国佬的这个结论,看似有道理,可实则完全是废话和误导。与其说这是人工智能AI,不如说是一个美国做了一个有明显缺点的自动化程序。

大家都在看