理论物理学家霍金、美国奇人马斯克等曾在国际人工智能联合会议上支持“停止人工智能军备竞赛”的提议,希望禁止不受人类控制的进攻性自动武器。我们应该在适当时签署一项限制人工智能军事化的公约。
在人工智能武器成为下一颗“原子弹”以前,大国需要承担起责任,形成类似《禁止化学和生物武器国际协定》的国际公约,禁止将人工智能用于军事目的,而不是仅仅依靠科学界的“良知”。如果有一天,大量小型、小成本、无法控制的杀人机器肆虐横行,甚至人工智能武器逃脱了人类的监督,讨论治理和控制就来不及了。
人工智能的最高价值在于小成本、高效率和高密度,通过大数据和智能学习,快速提升了其能力。人类掌控人工智能的能力是脆弱和未知的。今天,大量的智能无人机和智能机器人已经被用于军事目的。
未来,所谓的“无需人为干预就能选择目标和交战的武器”将给人类社会带来不可预测的威胁。从表面上看,这些智能机器人或无人机将减少士兵的伤亡,但这些智能机器人和无人机的目标是谁?主要还是人类。
人工智能武器的不可控性在于,即使技术大国生产的武器可以选择目标,不受人类干预地进行交战,但这种武器被人类控制的可能性是未知的。大量人工智能参与学习并快速提高能力之后,如何选择攻击目标?我们一无所知。没有人能保证他们会得到有效的控制,但它们的目标一定是人类,因为它们就是为对付人类而产生的。
人工智能武器最大的特点是它的低成本和大量复制性。与核武器有所不同,核武器需要极复杂的技术、难以获得的原材料和昂贵的成本。人工智能武器易于大规模复制生产,并能通过各种渠道应用广泛。最近,在叙利亚战场之上,一架民用无人机被改造成了一架手榴弹攻击无人机。无人机和步枪的价格差不多,可以大量生产,而且很容易获得。一旦如此多有自我意识的人工智能武器被生产出来,人类就可以灭绝了。
本文来自投稿,不代表本人立场,如若转载,请注明出处:http://www.souzhinan.com/kj/343032.html