Paul Scharre是美国新安全中心的高级研究员,即将出版的新书《无人的军队:自主武器和战争的未来》(Army of None: Autonomous Weapons and the Future of War)将于2018年4月出版。在这篇评论中表达的观点是他的。

(CNN)物理学家斯蒂芬·霍金最近警告说人工智能和“强大的自主武器”的危险。自主技术正在飞速发展,但有关管理潜在风险的国际讨论已经开始。

本周,各国进入了联合国关于致命自主武器的国际讨论的第四年,也就是一些人所说的“杀手机器人”。联合国的谈判以未来的武器为导向,但用于击落导弹的简单的自动武器已经被广泛使用了几十年。

驱动自动驾驶汽车的计算机技术可以用于智能自动武器。

最近在线机器学习智能的进步使更多的先进武器能够自行寻找目标。今年早些时候,俄罗斯武器制造商卡拉什尼科夫(Kalashnikov)宣布,它正在开发一种“完全自动化的战斗模块”,该模块基于神经网络,可以让武器“识别目标并做出决定”。

不管卡拉什尼科夫的说法是否属实,自动瞄准机的基础技术即将问世。

在过去的几年里,一个由非政府组织组成的财团呼吁在建立之前禁止使用致命的自主武器。他们担心的一个问题是,机器人武器可能导致更多的平民伤亡。反对这项禁令的人反驳说,自动武器也许能够更精确地瞄准敌人,并能比人类更好地避开平民,就像自动驾驶汽车有朝一日可能会让道路变得更安全一样。

机器学习图像分类器,使用神经网络,已经能够在一些基准图像识别测试中击败人类。机器学习在需要速度和精度的情况下也很出色。

机械战警不可避免的崛起。

机械战警不可避免的崛起。

这些优势表明,在某些情况下,机器可能会在某些情况下胜过人类,比如快速判断一个人是否持有武器。机器还可以追踪人体的运动,甚至可以捕捉潜在的可疑活动,比如一个人能比人更快、更可靠地接触到隐藏的武器。

然而,机器学习平台目前有许多弱点。神经网络很容易受到欺骗攻击的攻击(发送错误数据),从而欺骗网络。假的“欺骗图像”可以用来操纵图像分类系统,相信一个图像是另一个,并且有很高的信心。

此外,这些模糊的图像可以被秘密地嵌入到常规图像中,这是人类无法察觉的。对手不需要知道源代码或训练数据,就可以利用神经网络来欺骗网络,从而使这些系统的实际应用变得令人不安。

更普遍地说,今天的机器学习智能很脆弱,缺乏人类智能的健壮性和灵活性。即使是一些最令人印象深刻的机器学习系统,比如DeepMind的AlphaGo,也只是非常聪明。虽然AlphaGo在中国古代围棋比赛中远远优于人类,但据报道,AlphaGo在玩一种与标准19×19围棋棋盘不同的棋盘游戏时,其性能明显下降。

机器人会来抢你的饭碗。

机器学习智能的脆弱性在战争中是一个问题,在战争中“敌人获得了选票”,并且故意试图将机器推到超出他们编程范围的范围。人类能够灵活地适应新形势,这是战场上的一个重要优势。

人类也能够理解战争的道德后果,而战争机器甚至无法在今天进行远程逼近。战争中的许多决定都没有简单的答案,需要权衡竞争的价值观。

作为一名在伊拉克和阿富汗作战的陆军游骑兵,我自己也面对过这些情况。机器不能衡量人的生命价值。美国参谋长联席会议副主席保罗·塞尔瓦将军反复强调了维护人类对使用武力的责任的重要性。今年7月,他对参议院军事委员会说,“我认为,我们不应该让机器人来负责我们是否要过人类的生活。”



相关文章