不久前,美国国防部高级研究计划局(DARPA)的ACE计划资助的一项名为“阿尔法狗斗”(AlphaDogfight Trials)的VR模拟人机对抗赛中,一个AI系统驾驶的F-16战斗机,以5比0的大比分狂虐人类王牌飞行员,显示出AI战斗机在投入实战对抗上面的巨大潜力。
这让很多军迷们纷纷惊呼,可能以后第六代战斗机根本不需要什么人类飞行员了。当然这也让我们不禁担忧,如果人工智能在战场上失控,那么人类岂不是很难对付他们了?
无论是期待,还是恐惧,反正人工智能在战争武器上的应用已经悄然开启。
据美媒体报道,借助对老式退役战机F-16的无人驾驶能力的改造,美国空军正在加速人工智能战机的研制。与此同时,美国海军也提出基于人工智能的第六代战斗机设计,目前已经结束概念设计的阶段,开始探索相关基于人工智能的传感器、新型武器和发动机技术的开发。
很显然,DARPA推动的这场AI空战挑战赛,正是在为今后战斗机的自动化作战做技术预演。如果仅仅从技术角度观察,我们可以说AI又拓展了一个新的应用领域,而且表现确实相当出色,但如果站在一个更宏观的背景下,我们其实在见证一场不得了的事情,那就是AI技术可能带来的一场新一轮的AI技术军备竞赛。
我们该如何来看待这一次AI战斗机的牛刀初试,又该如何看待AI所可能开启的新一轮军备竞赛?虽然现在可能不会有什么明确的答案,但仍然值得我们做一番“未雨绸缪”式的思考。
AI战斗机表现如何?
在这一次“阿尔法狗斗”空战对抗赛中胜出的AI系统名为“Heron”,是由美国的一家国防承包商苍鹭系统公司(Heron Systems)研发。在和人类王牌飞行员Banger进行决战之前, “Heron” AI系统已经在模拟空战中击败了另外7家公司的AI,包括美国最大军火商洛克希德马丁公司的AI系统。
要知道苍鹭公司也只是一家30多人的新兴的技术公司,可见并不是实力越强劲的公司就越容易拿到AI的领先优势,同时也能看到只要能够抓住人工智能的核心算法能力,即使是小团队也能取得一定的创新优势。
由于受到疫情影响,这场“阿尔法狗斗”对抗赛改成了线上直播。从直播的对抗赛来看,Heron的表现相当完美,不仅始终在攻击上占据上风,而且射击相当精准,而人类飞行员尽管在模拟对抗中可以突破人体极限,但仍然未能在模拟空战中占得丝毫优势。
根据专家分析,Heron一直能够凭借态势感知能力优势率先占位,并通过精确判断能力对人类飞行员形成碾压。在预判的反应速度上,人类飞行员需要0.3秒才能对敌机的行动做出反应,而AI飞行员在几毫秒内就可以做出反应,就算模拟F-16战机从高速俯冲到低空盘旋,AI仍然具有超高的瞄准能力,而这一点是人类飞行员难以做到的。
除了极具领先优势的操作技能,AI本身没有任何人类的身体承压极限,更不会有心理上面的任何波动,可以说飞机的承压极限就是AI的行动限制极限,因此,AI系统可以让战斗机做出人类难以完成的极限动作和反应速度。
有人分析认为,5比0的结果其实没有真正显示出AI的实力,而那些被Heron打败还没来得及跟人类飞行员较量的AI飞行员算法系统,其实也都可能战胜顶尖的人类飞行员。
一方面所有参赛队伍所使用的人工智能算法和工具并无本质差距,都只是采用不同的思路和方法来解决仿真模拟环境中视距内空战问题;另一方面,这些AI飞行员系统都经历了快速的迭代训练,进步神速。以夺冠的Heron为例,从去年底参赛到今年8月,Heron在经过至少40亿次仿真训练后,已经相当于拥有30年的F-16驾驶经验,虽然之前一直是模拟的是F-15战机,但在比赛前很短时间就能驾驭F-16战机,轻松击败F-16的王牌飞行员。
不过也有专家指出,这一次人机大战是在有限场景下的模拟对抗,其场景只是简单的一对一视距内项目,相比真实的空战场景来说复杂度要低出几个数量级。此外,相比AlphaGo围棋、星际争霸、Dota2等人机对战相比,“阿尔法狗斗”在游戏复杂度、信息可观测性和反应速度等方面所展现出的难度和特殊性还并不算突出。因此,在真实的人机对抗场景中,AI还不一定能够完胜人类。
不过,AI战斗机的技术方向和战略意义已经凸显。我们需要进一步看下美国国防部是如何看待这一技术方向的。
美国国防部的AI蓝图
对于美国已经纳入时间表的第六代战斗机,虽然没有详细的技术标准透露出来,但是人工智能的驾驶技术在新一代战机上的应用已经是不争的事实。
根据美国国防部DARPA的ACE计划,这次的空战对抗推进空战自主化的最佳切入点,这一项目可以逐步提高飞行员团体对人工智能的信任程度,并完成飞行员角色从单纯飞行器操纵者到战场指挥官的转变,使得AI控制的无人机可以和人类驾驶的战机一起编队飞行,为人类战机提供自主化协同和战斗辅助。
ACE更进一步的计划是,AI战机也将完成空战算法从仿真模拟到全尺寸实战,从布局到全局行为的跃迁,推动其最终 “马赛克战”的实现提供有力支撑。
据预测,第六代战斗机仍然会设置飞行员驾驶舱,也就是还是会由人类飞行员为主导,人工智能驾驶技术进行辅助。但预计届时人工智能驾驶系统能够全程接管空战操作,人类只需担当最终攻击命令的下达即可。
当然,这一界限很可能轻易突破,由于人工智能有更好的判断标准和反应速度,那么大概率飞行员也会授权人工智能自行攻击。而进一步的情况是,如果战斗机想要发挥全部战斗性能,那就可能不再需要飞行员出现在驾驶舱中,最多只需要远程监控而已。最后的底线是,人类飞行员或者指挥官能够有比人工智能战机更高的权限来决定停止攻击。
而这些技术推进都要看美国军方对于人工智能战机或者其他武器的界定。由于AI武器系统存在着根本性的伦理道德挑战,美国国防部一直声称不会“赋予人工智能执行杀人命令的能力”,而是更愿意推进其在情报分析方面的应用开发。但是就如刚刚我们所讨论的,戳破这一层窗户纸只需要轻轻地往前一小步。
根据美国国防部近几年推出的一系列政策文件来看,美国早已在倡导通过投资自主性、人工智能和机器学习等技术以获得具有竞争力的军事优势,并且国防部一直在把这些政策转化为具体的行动,从观念、组织和技术上破除发展人工智能的阻碍。
上个月26日,美国国会研究服务处发布的《人工智能与国家安全》报告显示,美国国防部正在考虑人工智能在包括情报、监视与侦察(ISR)、后勤、网络空间作战、信息战、指挥与控制、半自主和自主载具,以及杀伤性自主武器系统上面的多种不同应用。
从这一信息来看,美国已经在致力于将“人工智能技术带上战场”。而这一报告连同ACE计划在AI战机上面的进程,无疑不在传递明确的信号,那就是AI技术为主导的军备竞赛的潘多拉盒子终究会被打开。
AI军备竞赛的囚徒困境
在多年前,AI领域的学术界和企业界已经意识到AI技术既能造福于人类,又可能会给人类带来巨大的威胁,其中最主要的一大威胁就是AI可以用于致命战争武器的研发上面。
2018年,在瑞典举行的2018国际人工智能联合会议上,包括埃隆•马斯克(Elon Musk)和Alphabet旗下人工智能子公司DeepMind的三位联合创始人在内的科技大佬签署了一份协议,承诺不会发展致命的人工智能武器系统。这一协议是由一个名为“生命未来研究所”的研究机构起草,当时据称已经有超过2400人、160家公司和组织签署了这份协议,承诺他们将既不参与也不支持开发、制造、交易或使用致命自主武器,签署方还呼吁各国政府通过法律禁止此类武器。
显然,这一愿景太过理想化。首先是人工智能技术实在“太香”,可以用于围棋对弈、游戏对战的深度强化学习难道不能用于任务更简单的军事对战吗?从实际表现看堪称完美。其次是对于那些追求国家利益至上和军事领先的政府来说,放着如此诱人的技术哪有不抢先占领制高点的道理呢?
尽管一些科技公司在参与政府的军事项目的时候会受到一些员工或者外界的批评和抵制,但是谁又能真正舍得如此丰厚的巨额订单呢?另外,即使这些大公司不做,也有很多的创业公司和军火制造商背景的企业也会参与其中。
我们都知道人类所面临的“黑暗森林”体系以及由于相互猜忌而导致的“囚徒困境”,使得无论是一个国家还是一家企业都会很自然地把对手当做假想敌,把发展更先进武器当做压制对手的终极办法,直到上个世纪全球陷入到美苏争霸的核战争危机当中,而如今则可能是人工智能技术所带来的大规模自动化武器和战争当中。
对于未来的人工智能战争,未来可能有两种极端的设想。一种是极为乐观的猜想。由于人工智能武器的自动化程度,人类不必亲自参与到现实的战场冲突当中。所有的战争可能都是在无人参与的条件下进行。这一场景类似于春秋时墨子入楚,与公输班现场演示攻防战一样,不用真正经历战争的残酷,在“虚拟战场”或者无人烟的海洋、荒漠就把战争胜负决出。当然,这种结果说说就好。另一种就是悲观的猜想。人工智能武器不仅被这些经济军事大国掌握,也成为众多动乱国家、非法武装掌握的武器,一些非常规性杀伤性武器和自动化武器被滥用,整个世界将陷入到更加危险的冲突和战争境地。而这很可能由于地缘政治的恶化而出现。
正如历史一再重演的一样,战争是人类代价最大的集体行为,又是最容易应用先进科技的领域。尽管大多数人已经从历史经验中吸取过教训,也能预见到人工智能武器的危险后果,但这一次人工智能技术浪潮将不可避免地应用在未来军事的方方面面。
作为生于和平年代的我们,即便对这一场加速到来的AI的军备竞赛没有非常直观的或好或坏的认知,但我们仍然需要对这一趋势保持警惕,并能希望看到对世界和平发展富有责任的大国们能在AI的军备竞赛上保持理性,并能对AI武器的边界和范围达成共识。
从《三体》的启示来看,也许只有出现威胁整个人类的敌人出现,我们才可能团结起来一致对外。那么,未来我们“努力”寻找外星人,让AI去征服太空,这个目标它不香吗?
本文来自投稿,不代表消费最前线立场,如若转载,请注明出处:https://www.xiaofei001.com/1060.html