AI滥用风险被低估,全球26名专家撰写百页报告呼吁各国政府重视

来源:新华网  06-13 15:32

   人工智能的每一次进步都为罪犯提供了新武器。一份长达101页的人工智能风险报告在业界引起了关注,该报道称未来5年,人工智能技术的肆意泛滥可能导致新形式的网络犯罪、政治破坏,甚至是物理攻击。

  该报告名为《人工智能的恶意使用》(The Malicious Use of Artificial Intelligence ),由来自学术界、民间社会和工业界的14个机构的26位作者撰写。报告将人工智能描述为具有潜在军事和民用用途的“两用技术”,类似于核能、炸药和黑客工具。“随着AI的能力越来越强大,应用越来越广,我们预计越来越多地使用人工智能系统会导致现有威胁的扩大,新威胁的引入和威胁的典型特征的改变”。专家们呼吁人工智能研究者需要在研究初期就考虑潜在的对AI的错误使用,并尝试建立适当的监管框架,防止人工智能的恶意使用。

  报告将风险分为三部分:

  数字攻击

  物理破坏

  政治混乱:

  如果这些建议不被采纳,恶意使用AI将会给犯罪力量带来彻底的变革,威胁我们的日常生活。在数字领域,黑客可以使用人工智能来降低防火墙壁垒。该技术能自动搜索软件的关键bug,或者为金融犯罪迅速找到攻击对象。它甚至可以用来滥用算法来创建“社会工程攻击”(一种网络攻击行为,利用人的弱点,以顺从满足欲望的方式让人上当。),目的在于最大限度地提高用户点击恶意链接或下载受感染附件的可能性。

  随着人工智能影响不断扩大,除了恶意使用外,也很容易出现对人工智能的错误使用。讨论最多最广的是让无人机变成武器,被称为“屠杀机器人”,它拟合了轰炸和自动导航技术,能够执行反追踪暗杀。

  专家们提醒,人工智能也能用来制造政治混乱,比如制造出针对每个选民自动发布极具个性化虚假宣传,用一套独特的谎言来影响他们的行为。此外,人工智能还可以简单地运行“拒绝信息攻击”程序,编造海量令人信服的假新闻故事,使得合法信息很难从噪音中辨别出来

  报告作者之一,剑桥大学风险中心研究员Seán Ó hÉigeartaigh 说,“我们生活在一个人工智能滥用风险极高的世界里,我们需要承认问题的存在,因为这些风险是真实存在的。当下有很多选择必须亟待决定,我们的报告呼吁各国政府,机构以及个人采取行动。”

  “多年来,机器学习和人工智能的炒作已经盖过了事实。本报告不在赘述。而是提出一些可能有用的帮助:例如,如何设计出不易被破解的软硬件,以及什么样的法律和国际规章可以与此相结合?”

  然而,不是每个人都相信人工智能存在高风险。信息安全公司CrowdStrike的联合创始人Dmitri Alperovitch则认为,“没什么大不了,不会天塌地裂。”

  “双方会慢慢达成一个平衡的共识;这是一场持续的军备竞赛。在网络安全领域,人工智能可以帮助建立更强大的防护,当然也能用来制造更具破坏力的攻击。至于最终哪一方会占优势,还有待观察。我的预测是防守端会更有利,因为人工智能在大量数据收集方面的优势更适用于防守,而不是攻击。”

  报告也承认抵御人工智能则最佳武器还是人工只能,但是“基于人工智能的防守不是万能药,尤其是数字领域之外的地方。”要理解人工智能如何实现正确的开放使用,还有很多工作要做,开发并不断完善系统抗噪性验证的技术措施。

  本文编译整理自卫报、Quartz,编译杜雪,转载请注明来源。