究竟是否该禁止?人工智能武器研发引业界争论

人工智能 7个月前

  科技的发展无疑促进了生产力的进步,人工智能也被广泛应用于各个领域。但科幻电影里经常出现AI杀手机器人,也引来了不少对于人类未来是否会被机器人给取代的担忧。

  对此,近日以马斯克和DeepMind的三位联合创始人为首的科技界高层组成的联盟近期签署了一份承诺书,内容是他们所属的公司在未来将不会研发拥有AI的智能武器。

  签署者主要担心若开发致命型的杀人武器,会对人类产生威胁,因此互相共同承诺既不参与创造,也不支持致命性自主武器技术的开发。

  承诺中警告:在人类使用人工智能武器“选择和接触”目标时,如果决定射击目标前没有人为干预,那么最终结果将会导致道德沦丧,更严重的结果将会对现实生活产生危害。签署此次承诺书的人表示,“从道义上讲,不应该把结束人类生命的决定委托给机器。而实际来看,如果此类武器在未来得到扩散,那么最终的结果将危及每个国家甚至牵连到每个人的生命安全”。

  这一承诺也直接表现出业界对于AI的讨论,高科技公司的管理层已经从单纯的聊天转向用实际行动来证明他们的承诺。

  据悉,这次签署者包括 160 家与 AI 相关的公司和组织,以及超过2400名专家。其中包括Google DeepMind、ClearPath Robotics,欧洲人工智能协会、XPRIZE 基金会、硅谷机器人,伦敦大学学院以及特斯拉特斯拉总裁马斯克(马斯克),以及 Google Research 的 Jeffrey Dean 和英国议会成员Alex Sobel等人。

  专家小组反对无需人类操控就可以自主识别、瞄准和杀人的武器化AI系统。但是不包括像是军用无人机这样的东西,因为这类武器可以透过人类飞行员来进行远程便是与操作,选择杀死目标。主要认为人命不应该交由机器决定,同时呼吁各国政府和领导人,应建立国际法规予以控管。

  麻省理工学院物理学教授泰格马克在一份声明中表示,人工智能领导人从简单的交流变成了真实的行动,这一承诺实现了政客们从来没有做过的事,那就是承诺人工智能应用到军事设备时将会受到严格的限制。泰格马克还说:“AI武器就像生化武器一样令人厌恶和让人感到不安,AI武器应该像对待生化武器一样处理。”

  军事分析家保罗曾经写了一本关于未来战争和人工智能的书,他在今年告诉媒体:“现在已经没有了足够的‘能力’来推动国际间的自动化武器管制。因为没有任何一个西方国家的核心集团愿意参与进来,然而这个团体却非常重要。曾经的武器禁令是由加拿大和挪威等国家主导的,然而影响力却微乎其微。

  外媒Task&Purpose日前刊文,称人工智能武器将对美国军方正在实施的第三次抵消战略至关重要。机器学习、人机协作、以及无人机群都是可能会破坏国家之间的平衡的潜在系统,一些战术已经在战场上被使用了。例如,俄罗斯声称无人机群袭击了其在叙利亚的一个基地。

  在战场上早期采用类似于AI的策略,投入此类技术的国家数量之多,以及展示其潜力的现有武器系统,所有这些似乎都表明人工智能武器将是非常有效的战争工具。因此,虽然人们应该对工具的伦理和限制进行有力的讨论,但不围绕工具的使用制定出一个强制的禁忌或许还有一定的难度。