新的白皮书调查了有助于管理先进人工智能机遇并降低风险的国际机构的模式和职能
人们日益认识到先进人工智能 (AI) 的全球影响力,激发了公众讨论是否需要建立国际治理结构来帮助管理机遇并降低相关风险。
许多讨论都借鉴了民用航空领域与ICAO(国际民用航空组织)的类比;CERN(欧洲核研究组织)粒子物理学;IAEA(国际原子能机构)核技术;以及许多其他领域的政府间和多利益攸关方组织。然而,虽然类比可能是一个有用的开始,但人工智能新兴的技术将不同于航空、粒子物理或核技术。
为了成功实现人工智能治理,我们需要更好地理解:
我们需要在国际上管理哪些具体的利益和风险。
这些收益和风险需要哪些治理职能。
哪些组织能够最好地提供这些功能。
我们与牛津大学、蒙特利尔大学、多伦多大学、哥伦比亚大学、哈佛大学、斯坦福大学和 OpenAI 合作的最新论文解决了这些问题,并调查了国际机构如何帮助管理前沿人工智能发展的全球影响,并确保人工智能的好处惠及所有社区。
国际和多边机构的关键作用
获得某些人工智能技术可以极大地促进繁荣和稳定,但这些技术的好处可能不会均匀分配或集中在代表性不足的社区或发展中国家的最大需求上。互联网服务、计算能力或机器学习培训或专业知识的可用性不足,也可能阻止某些群体充分受益于人工智能的进步。
国际合作可以通过鼓励组织开发满足服务不足社区需求的系统和应用程序,并充分利用人工智能技术来改善这些社区的教育、基础设施和经济障碍,从而帮助解决这些问题。
此外,可能需要国际社会共同努力来管理强大的人工智能能力带来的风险。如果没有足够的保障措施,其中一些功能(例如自动化软件开发、化学和合成生物学研究以及文本和视频生成)可能会被滥用而造成伤害。先进的人工智能系统也可能以难以预测的方式发生故障,如果不负责任地部署该技术,就会产生事故风险,并可能造成国际后果。
国际和多利益相关方机构可以帮助推进人工智能开发和部署协议,以最大限度地减少此类风险。例如,它们可能会促进全球就不同人工智能功能对社会构成的威胁达成共识,并围绕识别和处理具有危险功能的模型制定国际标准。安全研究方面的国际合作也将进一步增强我们提高系统可靠性和防误用能力的能力。
最后,在国家有动机(例如,经济竞争)削弱彼此监管承诺的情况下,国际机构可以帮助支持和激励最佳实践,甚至监督标准的遵守情况。
四种潜在的制度模式
我们探索四种互补的制度模式来支持全球协调和治理职能:
政府间前沿人工智能委员会可以就先进人工智能带来的机遇和风险以及如何管理它们建立国际共识。这将提高公众对人工智能前景和问题的认识和理解,有助于对人工智能的使用和风险缓解进行科学的解释,并成为政策制定者的专业知识来源。
政府间或多方利益相关者的先进人工智能治理组织可以通过制定治理规范和标准并协助实施来帮助国际化和协调努力,以应对先进人工智能系统带来的全球风险。它还可以对任何国际治理制度履行合规监督职能。
前沿人工智能合作组织可以作为国际公私合作伙伴关系促进先进人工智能的获取。这样做将帮助服务不足的社会从尖端人工智能技术中受益,并促进国际上获取人工智能技术以实现安全和治理目标。
人工智能安全项目可以将领先的研究人员和工程师聚集在一起,为他们提供计算资源和先进的人工智能模型,以研究人工智能风险的技术缓解措施。这将通过增加规模、资源和协调来促进人工智能安全研究和开发。
运营挑战
关于这些制度模式的可行性的许多重要的悬而未决的问题仍然存在。例如,鉴于人工智能发展轨迹和能力的极大不确定性以及迄今为止对高级人工智能问题的科学研究有限,高级人工智能委员会将面临重大的科学挑战。
人工智能的快速发展和公共部门在前沿人工智能问题上的能力有限也可能使高级人工智能治理组织难以制定跟上风险形势的标准。国际协调的许多困难引发了关于如何激励各国采用其标准或接受其监督的问题。
同样,社会充分利用先进人工智能系统(和其他技术)的好处所面临的许多障碍可能会阻碍前沿人工智能协作组织优化其影响。分享人工智能的好处和防止危险系统扩散之间也可能存在难以管理的紧张关系。
对于人工智能安全项目来说,仔细考虑安全研究的哪些要素最好通过合作而不是公司的单独努力来进行,这一点非常重要。此外,项目可能很难确保充分访问所有相关开发人员最有能力的模型来进行安全研究。
鉴于人工智能系统即将带来的巨大全球机遇和挑战,各国政府和其他利益相关者需要就国际机构的作用以及其职能如何促进人工智能治理和协调进行更多讨论。
我们希望这项研究有助于国际社会就确保先进人工智能的开发造福人类的方式展开更多对话。