(资料图)
谷歌前首席执行官埃里克-施密特将人工智能与核武器相提并论,并呼吁建立类似于使世界上最强大的国家不互相摧毁的威慑制度。
7月22日,施密特在阿斯彭安全论坛关于国家安全和人工智能的小组讨论中谈到了人工智能的危险。在回答有关科技界道德价值的问题时,施密特解释说,他自己在Google公司的早期也曾对信息的力量感到天真。然后,他呼吁科技更好javascript地与它所服务的人的伦理和道德保持一致,并在人工智能和核武器之间做了一个怪异的比较。
人工智能和机器学习是一项令人印象深刻且经常被误解的技术。在很大程度上,它并不像人们认为的那样聪明。它可以制作出杰作级的艺术品,在《星际争霸II》中击败人类,并为用户打出基本的电话。然而,试图让它完成更复杂的任务,如驾驶汽车穿越大城市,并没有那么顺利。
施密特谈到了20世纪50年代和60年代,当时各国外交部门围绕地球上最致命的武器精心制定了一系列控制措施。但是,为了让世界达到制定《禁止核试验条约》、《第二阶段谈判协议》和其他具有里程碑意义的立法的地步,花了几十年的时间进行核爆炸,关键是广岛和长崎的毁灭。美国在二战结束时摧毁的这两个日本城市杀死了数以万计的人,并向世界证明了核武器的永恒恐怖。
我们与这些武器被使用的可能性共处的方式是通过一种叫做"相互确保毁灭"(MAD)的东西,这是一种威慑理论,确保如果一个国家发射核弹,其他国家也有可能发射。我们不使用地球上最具破坏性的武器,因为这样做有可能至少会摧毁全球的文明。python
尽管施密特的评论丰富多彩,但我们并不希望或需要人工智能的MAD。首先,人工智能还没有证明自己接近核武器的破坏力。但身居要职的人害怕这项新技术php,而且,通常是出于错误的原因。人们甚至建议将核武器的控制权交给人工智能,理论上他们会比人类更好地决定武器的使用。
人工智能的问题不在于它有潜在的摧毁世界核武器的力量。问题在于,人工智能的好坏取决于设计它的人,他们反映了创造者的价值观。人工智能存在着典型的"垃圾进,垃圾出"的问题。种族主义的算法造就了种族主义的机器人,所有的人工智能都带有其创造者的偏见。