首页 人工智能正文

我们不能阻止有害的AI 所以我们必须找到对付它的方法

人工智能 2019-08-23 14:45:18

随着深度学习持续进化的风险受到越来越多的关注,越来越多的重点集中在如何最好地防止AI被用于伤害。从杀手机器人到普遍的面部识别,社会越来越多地谈论新法规和企业责任承诺的必要性,以阻止有害人工智能的传播。不幸的是,现实是深度学习的易用性和全世界的分散式开发意味着根本不可能限制它的使用方式。相反,社会必须关注如何抵消其最有害的应用。

公众,新闻界,权威人士和政策制定者都谈到法律和承诺,以制止对人工智能的有害使用。然而,“AI”不是单片奇异算法。它指的是世界各地的研究人员正在开发的一类广泛的机器学习技术。

认为我们必须通过禁止“有害人工智能”的立法,就像我们必须禁止“有害统计”一样。正如我们无法阻止数学的有害使用一样,我们不能阻止滥用深度学习技术,因为没有单一的公司,政府或组织控制着深度学习或更广泛的数学领域的使用。

鉴于大多数人工智能创新的双重用途,针对特定社会有害的人工智能应用的立法也具有有限的效用。乍一看,面部识别的彻底禁令似乎是合理的,直到有人意识到这也会禁止基于面部的生物识别手机解锁。

一个重大的恐怖袭击事件是肇事者众所周知并在监控摄像机上清晰捕获但由于禁止面部识别而被遗漏也可能迅速逆转任何此类禁令。事实上,曾经激烈谴责美国数字监控工作的许多欧洲国家,面对恐怖主义威胁的增加,都急于采取同样的措施。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请 第一时间联系我们修改或删除,多谢。