AI领导人呼吁停止自主武器的发展

2021-09-27 11:46:40来源:

来自115个技术公司的首席执行官签署了一封公开信,敦促各国政府对全自治武器的开发和利用造成担忧。

在英国深度的Spacex和Tesla和Tesla和Mustafa Suleyman(Ai)的Elon Musk的首席执行官公司已经创立了阻止杀手机器人的运动,要求采用紧急行动杀手机器人。

这封信说:“致命的自治武器威胁要成为战争中的第三次革命。一旦开发,他们将允许武装冲突比以往任何时候都更大的规模争夺,并且时间率比人类更快地理解。这些可以是恐怖武器,武器认为,暴露和恐怖分子对无辜人口的使用,以及被黑客攻击的武器以不合需要的方式行事。“

这封信增加了商业领袖和AI专家对误用AI后果的越来越多的警告。

1月,1月,来自学术界和工业和思想领导人的100名AI研究人员,经济学,法律,道德和哲学的领导者会议,由生命研究所未来举办的会议,以解决和制定有益AI的原则。

研究人员已经开发了ASIMOLAR AI原则作为管理AI未来发展的指导方针。这些原则包括避免致命自治武器的军备竞赛,并且仅仅应该在广泛共同共享的道德理想的服务中制定的高度,以及所有人类而非一个州或组织的利益。

麝香,物理学家Stephen Hawking和Futurogart Ray Kurzweil是Asimolar AI原则的3,500名签署者和批准者之一。

麝香是一个直言不讳的批评,其固有的风险AI对人性构成。在最近的一个会议上,他说他最糟糕的噩梦情景是网络中的深刻情报。

“网络中可以深入智力是什么危害?”麝香在7月15日在国家州长协会问美国政府代表。“嗯,它可以通过做假新闻和欺骗电子邮件帐户并仅通过操纵信息来开始战争。”


返回科技金融网首页 >>

版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“科技金融网”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场,如有侵权,请联系我们删除。


相关文章