- 19 特别报道
人工智能全球治理走向何方
-
近年来,人工智能(AI)技术发展突飞猛进,AI产品正变得更加聪明、更加强大,逐渐给我们的日常生活带来改变。但与此同时,虚假信息、侵犯隐私、歧视等风险也开始显现,AI安全和治理成为世界各国面临的紧迫问题。7月5日,2024世界AI大会“前沿人工智能安全和治理论坛”举行,多位国内专家以及来自法国、美国、新加坡等国的专家发表讲话,讨论了AI治理理念、AI监管的立法进程、AI的全球挑战、国际合作等问题。
然而,美国政府频繁鼓吹“美中竞争”,试图在技术领域打压中国,给国际合作带来困难。清华大学人工智能国际治理研究院院长薛澜提及,一些美国专家想要与中国合作需要提交报告,一些企业也担心因合作遭到制裁,“在这样一种环境下谈合作,我觉得很困难”。新加坡政府首席人工智能官兼副首席数字技术官何瑞敏则直言,AI是在全球供应链中产生的,不可能由一家公司、一个国家或者一个机构垄断。
“中国不仅仅把AI理解为一种技术或服务”
去年10月,中国发布《全球人工智能治理倡议》,提出以人为本、智能向善、尊重主权主张,为AI未来发展方向给出基本原则。中国政法大学教授张凌寒在5日的演讲中表示,我国已经逐步发展出修正AI风险治理的路径,中国AI治理正在本土化。张凌寒表示,基于风险的治理被世界很多国家的立法采纳,但风险判断当中蕴含了很多价值的考量,风险并不是纯粹的科学概念,而是规范性概念。她指出,大部分机构都将侵犯隐私、歧视等对人身权利的侵害列为AI的主要风险,但这一类风险是难以量化计算的。她认为,我国已经逐步发展出修正AI风险治理的路径。她将中国AI治理的发展分为探索阶段、定向阶段和系统集成阶段,在治理手段上有与国际共通的部分,包括个人信息保护、算法影响评估等。与此同时,中国也发展出自己的特色部分,例如前两个阶段相关立法都强调发展与安全的平衡。张凌寒说:“目前中国的AI治理理念,与其说是完全基于风险的治理理念,不如说是基于价值的治理理念。基于价值的AI治理并不排斥风险治理,但它超越于风险治理。”她表示,中国的立法和政策治理中,不仅仅把AI理解为一种技术或者服务应用,AI既是未来赋能整个社会的基础设施,也是未来整个社会生产的组织形式,“另一方面,我国已经明确AI治理的理念和方案是‘以人为本 智能向善’,‘以人为本’是说技术不能偏离人类文明进步的方向,‘智能向善’是强调AI在法律伦理和人道主义层面的价值取向。”随着AI浪潮的兴起,我国已经提出一系列关于AI治理的倡议和立法文件。2023年8月15日,中国正式施行《生成式人工智能服务管理暂行办法》,这是全球首个全面监管生成式AI的立法文件,体现了中国的事前监管要求。今年5月9日,国务院印发《国务院2024年度立法工作计划》,人工智能法草案再次被列入预备提请全国人大常委会审议项目。7月1日,第78届联合国大会协商一致通过中国主提的加强AI能力建设国际合作决议,决议获得140多个国家的联署支持。据新华社报道,决议强调AI发展应坚持以人为本、智能向善、造福人类的原则,鼓励通过国际合作和实际行动帮助各国特别是发展中国家加强AI能力建设,增强发展中国家在AI全球治理中的代表性和发言权,倡导开放、公平、非歧视的商业环境,支持联合国在国际合作中发挥中心作用,实现AI包容普惠可持续发展,助力实现联合国2030年可持续发展议程。“AI不可能被一个国家垄断”面对飞速发展的AI技术,世界各国也开始关注治理问题。何瑞敏表示,新加坡从2019年开始开发AI治理框架,推动负责任地使用AI。在与全球和业界进行交流后,新加坡今年也更新了AI框架。何瑞敏指出,人们还无法准确预测AI的发展方向,政策制定者需要以谦卑的态度不断学习、探索和了解新的科学知识,并对技术对社会的影响保持清醒的认知。他认为,AI不是“黑白分明的”,对于AI的治理,人们需要有不同的视野。“AI可能会帮助我们应对气候变化,也会因为耗能而影响环境;AI可以帮助医疗,AI也可能会生成虚假信息等等。”何瑞敏说,“AI同时也可以向善,比如在新加坡,我们用AI优化移民的流程、预测医院繁忙时间,政府提供服务的时候也会使用聊天机器人。我们需要积极创新,让我们更好利用它有益的方面,并防止它对我们造成不好的影响。”他认为,有必要鼓励政策制定者多使用AI,以了解其潜力和限制,“我们要减少AI带来的有害影响,我们需要让人们参与到数据环境中,培养他们的技能和就业能力,让我们的公民和企业从AI中获益,这是我们国家AI战略的重要支柱”。他强调,AI是在全球供应链中产生的,芯片制造、数据训练、模型训练、应用程序开发等每一个环节的参与者来自全世界,不可能由一家公司、一个国家或者一个机构垄断。因此新加坡希望加强监管,共享经验和做法,从而实现互惠互利。新加坡政府在今年5月发布了《生成式人工智能治理模型框架》。据新加坡资讯通信媒体发展局发布的声明,该框架旨在促进创新的同时解决生成式AI问题,以构建一个可信的生态系统。框架呼吁政策制定者、产业界、研究界和公众等所有利益攸关方共同发挥作用。美国加州大学伯克利分校人类兼人工智能中心执行主任马克·尼兹伯格则指出,美国在AI领域拥有主权目标,寻求保持美国在AI领域的领先地位,也希望借助AI推动美国经济增长,以及推动美国国家安全发展。他表示,在美国的监管过程中,不同利益团体有着不同的诉求,这导致美国现在存在三组法律,分别是白宫去年签署的行政令、参议院民主党领袖查克·舒默发布的路线图以及加利福尼亚州发布的SB-1047法案。美国总统拜登在去年10月签署了一项行政令,要求美国政府机构制定标准,防止使用AI设计生物或核武器等威胁,并寻求“水印”等内容验证的最佳方法,拟定先进的网络安全计划。行政令还要求企业将AI产品的测试结果报告给美国政府,并提出吸引全球AI人才留在美国。美国参议院民主党领袖舒默领导的一个跨党派小组则在今年5月发布了一项AI监管路线图。据美国“政治新闻网”报道,该路线图将增加创新资金、制定AI安全的国家标准、加强美国国家安全、解决AI可能导致的失业问题、应对大选期间的“深度伪造”等列为优先事项。美国加州州参议院则在近期通过了SB-1047法案。据《福布斯》杂志报道,这项法案主要侧重于解决AI失控等潜在威胁,降低AI带来的生存风险。法案要求AI开发者进行严格的安全评估,并允许监管机构关停“以不安全方式运行”的AI产品。尼兹伯格表示,所有这些问题都还在辩论中,美国还没有大型的法律框架落地。“要驾驭AI的风险,离不开国际合作”近年来,人们愈发意识到国际合作在AI治理方面的重要性,但如今国际社会正面临发展不平衡、地缘政治矛盾等一系列复杂的挑战,这使得国际合作面临挑战。薛澜表示,AI全球治理的步伐依然存在差距,技术发展速度很快,但政府和相关机构的改变要慢很多。AI技术与许多机构存在关联,却没有明确的上下级关系,如何协调各机构的工作成为新的难题。薛澜认为,政府机构更需要紧紧跟上AI的发展,作出快速响应。AI行业也需要加强自我管理,以严格的方式进行自我约束。他还指出,地缘政治矛盾是AI全球治理面临的一个显而易见的问题。自2017年以来,美国和中国的科技合作急剧下降,这对AI治理的合作产生了巨大的影响。“我们知道,美国的同事如果要跟中国合作,需要提交报告,做很多的工作。同时,我之前也有参与过相关的研究,很多公司不想参加,因为他们担心可能会被列入名单。在这样一种环境下谈合作,我觉得很困难。”薛澜非常同意提升安全和治理方面的合作,危机管理、紧急计划等问题需要全球科研人员合作完成。但“美中竞争”是一个极具挑战性的问题,“我们至少要看一下,怎么样创造一个安全的空间,让技术人员和技术专家能够互相合作,不用担惊受怕。如果做不到这一点,我们所讲的很多东西都是无法实现的”。美国卡内基国际和平研究院主席马里亚诺-弗洛伦蒂诺·奎利亚尔也承认,AI治理是一个紧迫的问题,在中美之间需要更多的协调合作。他指出,AI的发展速度越来越快,正在改变我们的生活和工作方式,“现在正逐渐形成一个AI的生态系统,它跨越纽约、伦敦、上海、北京和其他地方,各地都在努力推进AI的创新,我们应当以负责任的方式推进这方面的工作”。他认为,要想让AI更好地为人们服务,就必须解决现有模型存在的风险,“我们都知道,这些模型可能会生成或传播虚假信息,AI被应用于军事或国家安全方面可能导致国家间对抗升级……要驾驭AI带来的风险,我们就需要国际合作”。在奎利亚尔看来,美国和中国有必要在AI治理方面合作,“我们应该引领AI前沿发展的一些应用。现在存在不同的风险,我们需要理解这些风险并进行合作,这样可以确保各国受益”。(摘编自观察者网 文/陈思佳)