新闻中心

当前位置 :主页 > 军事 >
军事AI化正重塑未来战争图景
* 来源 :http://www.savings-sidekick.com * 作者 : * 发表时间 : 2018-04-22 09:12

  近日,谷歌3100名员工发出,要求谷歌退出美国人工智能军事项目——Maven计划,并承诺永不参与打造任何类型的战争科技。

  随后,4月9日,联合国《特定常规武器公约》专家小组在召开会议,专项讨论“机器人”可能带来的影响。那么,以人工智能为基础的军事系统,能否代替人类做出恰当的军事决策?人工智能与军事真的不能共存吗?

  “人工智能在军事领域的应用广泛,包括军用人工智能机器翻译系统、智能电子战系统、自动情报与图像识别系统、人工智能武器等等。”中国指挥与控制学会青工委副主任、国防科技大学军事专家石海明对科技日报记者表示,“在遥远的未来,人工智能也许会像一些科幻电影中描绘的那样,使后人类战争从科幻变成现实。”

  人工智能在某些军事领域已表达出超越人类的能力。在2016年举行的一次模拟空战对抗比赛中,人工智能系统通过灵活、迅捷的动作击败了具备更强武器系统的退役战斗机飞行员,就像一个象棋大师输给了电脑。

  “目前在武器装备和指挥控制方面,人工智能主要集中在陆地、海洋、太空等各类作战机器人的研发应用和各类智能的研发领域。随着数据挖掘技术、大规模并行算法及人工智能技术的不断完善并广泛应用在军事上,情报、决策与作战一体化将取得快速进展。”石海明说。实际上,能在无人控制的情况下搜索并消除目标的自主武器就是典型应用,也是当前人工智能军事化的最主要应用。

  石海明介绍,能够自主运作的军用机器人被归为致命性自主武器系统(LAWS),目前发展的无人飞行器、无人地面车辆、无人水面艇等能够自主运作的武器系统在某种程度上都属于LAWS的范畴。这些武器装备体现出了较高的应用价值。

  “具有人工智能的军事机器人将改变未来战争形态,促进军事理论、体制编制、作战人员、战法战术等多方面的变革,使未来战争呈现出无人化和智能化的特点。”石海明指出。

  2017年人工智能国际会议上,特斯拉首席执行官马斯克、苹果联合创始人沃兹、研发“阿尔法围棋”的深度思维公司哈萨比斯等人签署,呼吁联合国应像一样,在战争中使用致命的自主武器和“杀手机器人”。霍金也曾指出,脱离人类控制之下的机器很难被住。

  石海明认为:“由于人工智能技术的发展局限,机器人可能将在或执行程序复杂的情况中出现失控现象,比如在单独执行作战任务或人机深度交流时。”

  2007年10月,美军第三机步师一部带着3台“利剑”机器人进攻一个反美武装盘踞的据点时,由于没有及时更换软件,其中一台“利剑”竟把枪口瞄准美军操作者,而且无论操作员如何发出“行动取消”的指令,失控的“利剑”就是停不下来,直至用火箭筒把它炸翻才化险为夷。

  但石海明还是对人工智能未来在军事上的应用表达了谨慎的乐观。他认为,“这样的在人类历史上的技术时期都曾出现过,比如工业时期的卢德运动。这一现象的本质原因在于技术异化对人类的。目前来看,人工智能在军事领域的应用潮流势不可挡,在可预见的时期内,人工智能将在情报侦察、后勤保障、无人作战系统等领域发挥重要作用。”

  随着越来越多的国家投入到军用机器人的研究与开发中去,世界已在不知不觉中滑进了一场机器人军备竞赛。

  毋庸置疑,军事机器人相比于士兵,主要在功能、体能、效能方面具有优势。军事机器人可以同时承担多项复杂任务,作战可以更久,在程序设定完备后能够高效精准达成目标,失误率较低。特别是完全自主机器人具有持续作战时间长、反应能力快、能力强等优势,将会进一步增加战争的强度,与人类战士相比具有巨大的优势。

  然而,有关战争责任的伦理问题就这样出现了,参战的自主机器人到底是不是战斗员?又应当承担何种战争的责任?2008年,美军海军研究办公室发表的一份报告认为,用于战争的自主机器人无法承担法律责任。

  石海明指出,“想要尽可能降低人工智能的负面影响,首先要人机结合、以人为主的原则,人类应当对军事机器人的控制权,制定应对意外事件的应急机制,建立防范机器人失控的后台程序。另外,应当加强人工智能的技术预测与评估,在充分试验与分析的基础上逐步推进人工智能技术的军事应用。”

上一篇:-36