专家:应约束人工智能军事化 勿逃避人类监管

2017-02-17 09:29:00 环球时报 分享
参与

  有必要约束人工智能军事化

  项立刚

  斯蒂芬·霍金、马斯克等人曾在国际人工智能联席会议上,支持通过禁止不受人类有意识控制的进攻性自主武器,来阻止人工智能军备竞赛的提议。笔者认同他们的观点,也认为在必要时应签署一个公约来约束人工智能军事化。

  人类今天要保卫自己,可利用的武器已经太多了,对于核武器的管控早已是大问题,我们并不需要在常规武器之外,还把人工智能用于武器。

  人工智能最大的价值在于低成本、高效率、密集性,通过大数据、智能学习迅速提升其能力。人类对人工智能的把握和控制力又是薄弱和未知的。今天已经有大量的无人机、智能机器人被用于军事行动,而未来所谓“不需要人类干预就能选择目标和交战的武器”,对于人类社会产生的威胁变得不可预知。表面上,这些智能机器人或是无人机作战,会减少士兵的伤亡,但是这些智能机器人和无人机的攻击对象是谁?主要还是人类。

  人工智能武器最复杂的问题,在于它的廉价与不可控。不像核武器制造需要极高的技术,很难获得的原料以及高昂成本。人工智能武器便于大规模生产,并通过多种渠道流通。最近我们已经看到在叙利亚战场出现了由民用无人飞机改造而成,携带了榴弹攻击型的无人机,一架无人机和一支步枪的价格相近,可以大批量生产,很容易获得。

  人工智能武器的不可控性还在于,即使由技术大国生产出不需要人类干预就能选择目标和交战的武器,但这类武器受人类控制的可能性是未知的,在大量人工智能介入,拥有了强大的学习能力之后,它会怎么选择攻击目标,我们一无所知,无人能保证它会被有效控制,不会人为复制。

  因此,在人工智能武器还没成为下一个“原子弹”之时,大国首先需要担起责任,在国际上形成一个类似于禁止化学和生物武器国际协定一样的公约,禁止把人工智能用于军事,而不能单靠科学界的“良心”。如果有一天,大量小型、低成本、不可控的杀人机器泛滥成灾,甚至出现人工智能武器逃避人类监管的情况,再谈管理和控制已经太晚了。▲(作者是信息消费联盟理事长)

您看完这条新闻的表情是?
责编:刘昆
版权作品,未经《环球时报》书面授权,严禁转载,违者将被追究法律责任。 获取授权