来自14个组织的26名研究人员对恶意AI所造成的危险进行了全面的报告。
当我们想到人工智能时,我们往往会想到机器学习的人性化表现,比如Siri或Alexa,但事实是,人工智能在我们身边主要是作为后台进程来运行。从医学到金融,人工智能向各种事物的的缓慢蔓延可能很难让人理解,因为它看起来与好莱坞在《机械姬》或《她》等电影中所构思的人工智能有很大的不同。事实上,与人类相比,如今大多数“人工智能”都是相当愚蠢的——机器学习算法可能会在特定任务中给予人类一个重击,比如下围棋,但在更普通的任务上,比如区分乌龟与枪对其来说就很困难。
尽管如此,去年2月,一组由26名人工智能研究人员组成的团队在牛津会面,讨论超人类AI(superhumanartificialintelligence)在未来可能被应用于恶意目的的方式。这次为期两天的会议产出了一份长达100页的报告,内容是关于人工智能不良应用所带来的风险以及降低这些风险的策略。
工作组提出的四项建议中,有一项是“人工智能的研究人员和工程师应当谨慎对待其工作的双重使用特性,在研究的优先级和规范中考虑相关使用不当所产生的影响,并在有害应用程序可预见时主动联系相关的参与者。”这一建议尤其适用于最近兴起的“deepfakes”,主要把机器学习用于将好莱坞女演员的脸换接到色情演员的身体上(制作人工合成的假色情片)。由Motherboard的SamCole最先报道,这些deepfakes是通过改编一个名为TensorFlow的开源机器学习库来实现的,该库最初由谷歌工程师开发。Deepfakes强调了机器学习工具的双重使用特性,同时也提出了一个问题:谁应该使用这些工具?
尽管报告中特别提到了Deepfakes,研究人员还强调了将这种类似的技术用于处理世界领导人视频所产生的危害,这会对政治安全构成威胁,这是研究人员考虑到的三大威胁领域之一。人们只需想象出一段虚假的视频,如特朗普在平壤向朝鲜宣战以及由此引发的后果,就会明白这种情况的危险性。此外,研究人员还发现,通过数据分析和大规模有针对性的宣传,利用人工智能技术,能实现前所未有的大规模监控,这是对政治领域考量的另一个侧面。
另外两个被认为是恶意人工智能的主要风险领域是数字和物质安全(physicalAI?security)。在数字安全方面,使用人工智能进行网络攻击将“缓解现有的攻击规模和效率之间的权衡。”大规模的网络攻击可能会以人工智能的形式进行,比如大规模的网络钓鱼,或者更复杂的攻击形式,比如使用语音合成来模拟受害者。
在物质AI威胁方面,研究人员观察到物质世界对自动化系统越来越依赖。随着更多智能家居和自动驾驶汽车上线,人工智能可能被用来颠覆这些系统,并造成灾难性的破坏。此外,还有故意制造恶意人工智能系统所带来的威胁,比如自动化武器或微型无人机。
其中一些场景,比如微型无人机所带来的灾难,似乎还很遥远,而其他的一些,比如大规模网络攻击、自动化武器和视频操控等,已经引发了一些问题。为了应对这些威胁,并确保人工智能被用于造福人类,研究人员建议开发新的政策解决方案,并探索不同的“开放模式”以降低人工智能的风险。例如,研究人员认为,中央访问许可模式(centralaccesslicensingmodels)可以确保人工智能技术不会落入坏人之手,或者建立某种监控程序来密切记录人工智能资源的应用途径。
报告的作者写道:“目前的趋势强调了对前沿研究和发展成果的广泛开放。如果这些趋势在未来5年持续下去,我们预期攻击者用数字和机器人系统造成危害的能力会显著提高。”
另一方面,研究人员认识到,开源人工智能技术的扩散也将越来越多地吸引决策者和监管机构的注意,他们将对这些技术施加更多限制。至于这些政策应该具体采取何种形式,必须从地方、国家和国际层面上加以考量。报告总结说:“这份报告的合著者之间仍然存在许多分歧,更不用说世界上不同的专家群体了。随着各种威胁和反馈被发现,在我们得到更多的数据之前,这些分歧不会得到解决。但这种不确定性和专家分歧不应阻止我们在今天尽早采取预防措施。”