最好看的新闻,最实用的信息
06月16日 17.4°C-20.9°C
澳元 : 人民币=4.79
珀斯
今日澳洲app下载
登录 注册

抱歉,要禁止“致命智能武器”的开发可能是不现实的

2017-08-22 来源: DeepTech深科技 原文链接 评论0条

上周日,包括伊隆·马斯克(Elon Musk)在内、来自全球的 116 位人工智能专家向联合国致公开信,预警了会因过度开发或使用“智能武器系统”而引发的“潘多拉魔盒”效应。

事后,众多媒体却将“警告”渲染为“对全面禁止(智能武器)的呼吁”。但事实上,这封信件只是向联合国内部负责智能武器的委员会提出了技术性建议。自动化武器确实可以成为“恐怖武器”,但在现状下,全面禁止它们却并不实际。

而这并不代表出台针对特殊武器技术的禁令不可实现。许多现行的禁令都很好地发挥着效力:比如由 192 个国家签署的化学武器禁令,再比如通过全球协定的禁止使用激光武器永久致盲的条例。

但是,自动化智能武器系统的情况有所不同。首先,基于目前武器技术上人机合一的发展进程,人为操纵和自动开火的武器之间的界定越来越模糊。而且,无人机、无人车等军用设备的高效也使得它们在现代战争中越来越不可替代。

抱歉,要禁止“致命智能武器”的开发可能是不现实的 - 1

近期一篇关于人工智能和战争的研究报告就指出:“科技的最终目的就是快速放大武装力量。”以美国为首的、在军备研发上高速前进的国家,很难放弃对精尖智能武器的追求。而发展军备技术也在发达国家的带领下,成为了全球性的、难以消退的浪潮。

大家肯定会好奇,难道就没有任何法制法规来约束战争机器咄咄逼人的发展势头吗? 有,但是现有的条例约束性并不强,而且很多国家或政府主观上并不愿意在暗流涌动的军备竞赛中放缓脚步。

以美国为例:美国国防部确实有“(必须)将人类作为(武器)系统的一部分”的政策,换言之就是对全自动武器加入人为因素的制约。但同时,这些专属于国家的条例并不受国际上对智能武器禁令的影响。

如今,能自主决策的军事装备如雨后春笋。现服役于美国海军的 AEGIS 舰载导弹和防空系统,能完全自动锁定、瞄准趋近的敌机和导弹,并自主做出开火决定。类似地,以色列开发的Harpy无人机,如果在巡逻中发现任何雷达信号,会马上对目标俯冲轰炸。Harpy也有属于自己的、名副其实的的广告词——“开火了,就忘了罢”(“Fire and Forget”)。

抱歉,要禁止“致命智能武器”的开发可能是不现实的 - 2

军火商在武器开发上的进展也让科技界其他领域感到不安。伊隆·马斯克早在 2015 年就与上千名来自学界和工业界的人工智能专家联名签署了一封信件,旨在推动全面禁止将智能武器用于任何进攻性目的的进程。

与上周日同样有他参与的公开信一样,2015 年的活动也是由“生命未来研究院”(the Future of Life Institute)组织的。这个组织的名单上也印有很多大家耳熟能详的名字:史蒂芬·霍金、索尔·珀尔马特、阿兰·古斯等人都是该组织科学咨询委员会的成员。

但“致信运动”不应是解决问题的唯一路径。耶鲁法学院的研究员 Rebecca Crootof 表示:“对智能武器表示担忧的人应该将精力更多地放在规章的制定和完善上。”确实,类似日内瓦公约的国际法律,就包含限定人类士兵行为的条例,那这些法律也可以建立起合理的、对机器士兵的限制。面对越来越“智能”的武器,我们人类势必也要充分发挥自己的才智。

今日评论 网友评论仅供其表达个人看法,并不表明网站立场。
最新评论(0)
暂无评论


Copyright Media Today Group Pty Ltd.隐私条款联系我们商务合作加入我们

电话: (02) 8999 8797

联系邮箱: info@sydneytoday.com 商业合作: business@sydneytoday.com网站地图

法律顾问:AHL法律 – 澳洲最大华人律师行新闻爆料:news@sydneytoday.com

友情链接: 华人找房 到家 今日支付Umall今日优选