清华主页 - 清华新闻 - 媒体清华 - 正文

从技术推进到全球合作——

人工智能治理,我们还能做些什么

来源:中国科学报 1-7 陈彬

从百年前的《大都会》到已被列为经典的《2001太空漫游》《黑客帝国》,只要是涉及到科幻电影,人工智能(AI)几乎都会成为必不可少的存在。

在大部分电影中,人工智能被设定为人类的“公敌”,足见人类对于未来人工智能治理的忧虑。

回到现实,不久前,由清华大学人工智能国际治理研究院主办的首届“清华大学人工智能合作与治理国际论坛”在该校落下帷幕。在这场持续两天的论坛上,对于人工智能未来的发展,以及由此可能带来的治理问题,与会学者展开了一场热烈的讨论。

这场讨论与科幻无关,但却可能关乎到人类未来。

人工智能发展的非商业“盲区”

2016年,一项来自BBC的数据分析曾预测,2020年全球人工智能市场规模将达到183亿美元,约合人民币超千亿元。转眼间,2020年已然过去,近日根据普华永道会计师事务所的一项数据预测,2020年全球人工智能市场规模达到2万亿美元。

这两组相隔四年的数据足以折射出近年来人工智能在全球范围内的飞速发展。

然而,在人工智能快速发展的背后,还有哪些人们尚未关注到的“盲区”呢?

论坛上,中国科学院自动化研究所中英人工智能伦理与治理中心主任曾毅坦言,虽然人工智能技术发展迅速,但目前其主要贡献于有明显商业利益的领域,如健康、产业创新等,而对商业利益相对不明显的议题,其关注度明显不足。

比如,2015年9月25日,联合国可持续发展峰会正式通过17个可持续发展目标。这些目标旨在从2015年到2030年间。以综合方式彻底解决社会、经济和环境三个维度的发展问题,使世界走上可持续发展道路。

“虽然这些目标都极其重要,且根据初步统计,目前全球已有800多万篇科学研究论文与人工智能相关,其中只有0.1%与可持续发展目标相关。”曾毅说,“因此,我们应当思考并实践通过人工智能推进可持续发展目标的实现,这是科研工作者、产业创新者与政府部门的共同责任。”

对此,清华大学全球可持续发展研究院执行院长朱旭峰表示,可持续发展目标之间是相互关联的,“不能只考虑人工智能与单个可持续发展目标的关系,而是要从综合角度看待并使用人工智能,从而应对整体实现可持续发展目标的挑战”。

2020年9月,北京智源人工智能研究院联合其他机构在京发布了我国首个针对儿童的人工智能发展原则——《面向儿童的人工智能北京共识》。

“此外,我们还成立了人工智能与生物多样性工作组,推动人工智能保护动物。”作为该研究院人工智能伦理与可持续发展研究中心主任,曾毅表示,未来人工智能在社会中扮演什么角色,取决于人类如何去实现和实现什么样的通用智能和超级智能。“我希望未来可以建立‘可持续的共生社会’,实现人工智能与人、动物、环境之间的和谐共生。人类与人工智能深度协作,才能实现真正意义上的可持续发展。”

用发展解决数据安全问题

“数字时代,数据正在以指数级的速度激增,但推动社会进步的同时,也存在着滥用数据和侵犯个人隐私等风险。”在论坛上,联合国开发计划署驻华代表白雅婷表示,“我们必须谨慎,确保人工智能可以推动人类发展,避免加剧不平等或产生新的挑战,从而阻碍全球可持续发展目标的实现。”

在数据的使用问题上,中国科学院院士、清华大学人工智能研究院名誉院长张钹表示,人工智能的发展必须依赖大量数据,但这些数据同时也存在着大量需要解决的问题,如隐私问题、知识产权问题、偏见问题、污染问题、漏洞错误等。

“比如,在某个视频监控的场景中,如果要用计算机监测电网周遭环境的危险情况,我们只需要在某处布置一点很简单的噪声干扰,就可以让计算机误认为该地区有火情。反之,一点点小的干扰也可以让计算机无视真实发生的火情。”张钹说,而这点噪声往往是人类难以察觉的。

数据问题也是中国科学院院士、清华大学交叉信息研究院院长姚期智最关心的问题。正如他在发言中所说,“在AI和大数据的时代,必须有高质量和可信的数据。在这方面,加密技术在数据治理上必须发挥重要的作用”。

姚期智表示,在数据加密技术领域,使用密码学设计可信的算法可以起到很好的作用。“不仅如此,如果将可信算法与相关的机构做系统性结合,也可以形成一个基础来实现可信的数据治理。”

在这方面,一个典型的实例便是多方安全计算(MPC)。早在1982年,姚期智就曾提出该技术可以使人类在加密数据上进行计算。“也就是说,数据可以做到能用但不能看。”

“通过使用多方安全计算,研究人员可以把许多数据库汇集在一起,既保护隐私,又可以实现高质量的人工智能学习。”姚期智说,MPC平台的发展是当今大数据中的热门课题,可以进一步支持可信的数据治理。

尽管人工智能面临安全性问题,但张钹表示,不能因此限制其发展。相反,解决安全性问题的最主要方法正是相关技术的不断进步。“但这就涉及到另一个问题——下一步该如何发展?”张钹说。

2020年7月,张钹在一篇署名文章中,首次阐述了第三代人工智能的理念。他表示,第三代人工智能的发展路径,就是融合第一代的知识驱动和第二代的数据驱动的人工智能,建立新的可解释和鲁棒的人工智能理论与方法,发展安全、可信、可靠和可扩展的人工智能技术。

“我们现在提出第三代人工智能的设想,就是力图在理论上解决人工智能的相关问题。这也是人工智能未来的一个发展方向。”张钹说。

人工智能需要国际合作和治理框架

面对人工智能未来的发展,技术创新还存在着太多的不确定性。当下如何通过在人工智能治理领域的全球合作达成国际共识,进而形成一定的规范,成为许多人思考和讨论的重点。

在发言中,清华大学人工智能国际治理研究院名誉院长、清华大学战略与安全研究中心主任傅莹表示,技术革命往往伴随着不可预知的安全挑战。在这方面,国际关注的焦点之一是人工智能武器的道德和技术风险。

此前,清华大学战略与安全研究中心与多家国际机构已经围绕该问题开展了研讨,试图寻找管控人工智能武器风险和国际安全治理的路径。

“无论如何,专家们认为人工智能的武器化是不可避免的,因此需要寻找合适的治理路径。”傅莹表示,在这方面,人类必须汲取历史教训。“例如,我们核武器的治理共识就达成得太晚,这导致了人类曾经面临巨大威胁。互联网的治理也没能在早期实现。希望这次对人工智能,尤其是人工智能武器的治理,人类能走在技术变革的前面,早些达成治理共识。”

人工智能武器只是全球治理共识的一部分。正如在发言中,联合国副秘书长、联合国秘书长特别顾问法布里齐奥·霍奇尔德所说,“没有任何一个单一国家或公司能够设计出全面、符合所有人预期的指导方针,用以管理人工智能的发展,以及它在全球引起的连锁反应。我们必须团结起来,为人工智能创建一个可行的国际合作和治理框架”。

就人工智能国际治理的现状,清华大学人工智能国际治理研究院院长薛澜指出:“当前在人工智能这类重大问题的全球治理上存在‘机制复合体’的现象,即在治理过程中,有不同的治理机制。这些治理机制之间有重叠,也没有上下级关系。此时,如何协调不同治理机制是一个很大的挑战。”他进一步指出,正因为如此,更要加强人工智能治理上的国际合作:“人工智能的发展与国际合作密不可分,我们对人工智能领域中国与美国学者合作的情况进行过分析,中美合作的研究成果占到比较大的比重。大量的国际合作是人工智能发展到今天非常重要的支持因素,今后还需要继续合作。”

对此,新加坡信息通信媒体发展管理局首席执行官助理杨子健提醒,国际人工智能治理框架应具有较高的包容性,比如能适用于不同的社会经济、国际司法体系等。同时,由于人工智能是一个需要“应用”的技术,人工智能治理框架也应当是贴合实际的。

“在人工智能治理层面,良好的‘伙伴关系’应符合两个要点。”杨子健说,首先,要符合现行的政策治理框架;其次,需要了解人工智能开发者以及产业发展的挑战是什么,从而创造一个能为他们赋能的良好环境。

“从目前来看,中美两国是人工智能技术研究和应用发展最快的国家,两国既需要也有条件加强协调与合作。”傅莹表示,近年来,除中美两国外,许多其他国家的学者也表现出对人工智能应用安全的担忧。这说明该问题是人类共同的难题。“中美开展对话与合作至关重要,将为全球合作贡献智慧。希望并相信这不是一场‘零和游戏’,人工智能最终应使得全人类受益。”傅莹说。

编辑:李华山

2021年01月08日 08:30:07

相关新闻

读取内容中,请等待...

最新动态

清华大学新闻中心版权所有,清华大学新闻网编辑部维护,电子信箱: news@tsinghua.edu.cn
Copyright 2001-2020 news.tsinghua.edu.cn. All rights reserved.