1.3 人工智能安全治理
当前,人工智能技术已经在科学技术、经济与金融、工业与农业、军事与国防、教育与体育等方面获得广泛应用,并且暴露出大量安全风险。近年来,生成式人工智能的典型代表ChatGPT的快速发展给国家与社会安全、公民的隐私与人身安全、社会法制与伦理道德带来新的风险与挑战。以下从技术标准、政策、法律法规等方面介绍人工智能发展领先国家地区的有关情况。
1.美国
人工智能安全立足于美国的国际领导力和国家安全战略。2018年5月10日,美国宣布成立人工智能国家安全委员会,直接向白宫汇报并且由其负责,统筹应对安全领域的挑战。2021年,《美国创新与竞争法案》明确把人工智能列为提高美国国家竞争力和强化国家安全的关键技术。为了提高美国国家竞争力、强化国家安全,2021年,美国人工智能国家安全委员会又从机构、资源、技术、政策和措施等多个方面制定战略规划。美国人工智能安全政策的主要特点如下。
(1)建立应对人工智能安全问题的统筹机构——美国人工智能国家安全委员会,应对人工智能安全挑战,该机构直接向白宫和国会汇报。
(2)重视人工智能的发展对国防、军事、情报等领域的重要推动作用。
(3)将人工智能技术纳入国家发展和国际博弈战略,力图使其对美国的领导能力发挥重要保障作用。
(4)在国家权力机构的不同层面(如联邦政府、州和地方政府)构建法律监管体系,对人工智能系统的设计、应用等环节进行监管[68]。
(5)高科技企业、行业协会和各种社会组织共同努力,加强在人工智能治理、伦理、安全等方面的相关政策法规建设,具体如表1-1所示。
表1-1 美国人工智能安全相关政策法规
(续表)
2.欧盟
欧洲国家非常重视价值观与人工智能技术的协调及其在人工智能技术中的体现,重视人工智能对政治、经济、社会体系的影响和道德伦理的冲击。欧盟人工智能高级别专家组,隶属欧盟委员会,致力于使欧洲国家的人权、自由等价值观体现在人工智能技术与伦理体系中[76],具体如表1-2所示。德国、法国等欧盟成员国家,以人工智能产业安全发展、监管规制的法律制定为主要侧重点;英国重视机器人、智能系统、自动驾驶应用等人工智能深度应用场景下的数据隐私、技术伦理和安全等问题。
表1-2 欧盟人工智能安全相关政策法规
资料来源:惠志斌.《信息安全与通信保密》。
3.日本、韩国、新加坡
日本、韩国、新加坡关注安全领域偏少,这些国家更多地从智能化转型和新兴技术应用等发展的维度来看待人工智能问题[77]。韩国更重视在智能机器人场景中的人工智能安全,而新加坡、日本更关注人工智能的伦理原则和治理规范。
4.中国
我国非常重视人工智能技术发展及伴生的安全问题,强调必须高度重视人工智能技术可能带来的安全风险挑战,加强技术政策的前瞻预防与约束引导,最大限度地降低风险,确保人工智能安全、可靠、可控、持续发展;强调建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德体系。我国政府在2017年7月颁布《新一代人工智能发展规划》,设立了三步走的战略目标:到2020年人工智能总体技术和应用与世界先进水平同步;到2025年人工智能基础理论实现重大突破,部分技术与应用达到世界领先水平;到2030年人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心。在人工智能技术应用的安全问题上,我国政府予以高度重视。《新一代人工智能发展规划》明确指出,在促进人工智能发展的同时,关注人工智能数据安全风险,提出“强化数据安全与隐私保护权力,为人工智能研发和广泛应用提供海量数据支撑”,以及“促进人工智能行业和企业自律,切实加强管理,加大对数据滥用、侵犯个人隐私、违背道德伦理等行为的惩戒力度”。中国人工智能产业发展联盟制定了《人工智能行业自律公约》,截至2022年5月,已有约100家单位签署[78]。在强人工智能领域,与欧美相比,我国政府在政策层面更重视强人工智能可行性技术路线的探索研究,在对强人工智能安全与健康发展的未来布局中,要提前做好技术、伦理方面的统筹战略规划。
目前,人工智能主要面临技术和应用两方面安全风险。一方面,人工智能技术主要面临算法、模型、数据安全、软硬件平台等类型的风险;另一方面,随着人工智能应用的不断普及,其给社会发展、伦理道德、人身安全等带来的风险不断加剧。需要从技术、法制、伦理、管理规范等不同角度加强人工智能安全规范与保障措施。适应人工智能安全需求,提升人工智能算法和应用的环境安全水平,强化人工智能安全管理能力,保障人工智能在安全的环境下快速可持续良性发展。
1.3.1 人工智能安全与技术标准
自主可控是实现人工智能安全的必要条件和重要环节。采用自主可控的人工智能技术不等同于实现了人工智能安全,但没有采用自主可控的人工智能技术则一定不能保证安全。这种现象在操作系统领域尤为突出,例如,Windows操作系统是美国自主可控的产品,但泛滥的恶意软件在全球范围内快速蔓延时,位于美国的Windows操作系统同样会被大规模感染和恶意控制[79]。因为技术自主可控,美国在提前发现脆弱点、后门清查、研发相应防御手段等方面便有了先天优势。
截至2022年4月,各国及国际组织相继发布18项相关的基础性安全标准和报告,其中包括我国发布的《新一代人工智能发展规划》等4项。平台、支撑类安全标准主要响应人工智能安全风险、法规政策要求,提出人工智能安全原则和要求,为人工智能安全标准体系提供基础性支撑,可指导相关方开展人工智能安全建设,切实确保人工智能安全。全国信息安全标准化技术委员会(TC260)和全国信息技术标准化技术委员会人工智能分技术委员会(SAC/TC28/SC42)等组织相继发布8项与算法、数据、模型等相关的安全标准和报告,主要针对人工智能算法、数据和模型中突出的安全风险问题提出相应的标准,主要包含数据集安全、隐私保护、算法模型可信赖性等。
SC42和IEEE等组织发布技术和系统类标准13项,其中我国发布《人工智能数据安全白皮书》,主要用于保障人工智能开源框架安全和人工智能系统安全等。SC42和IEEE等组织相继发布安全管理和服务类标准6项,目的是保障人工智能管理和服务安全,包含安全风险管理、供应链安全、人工智能安全运营等。SC42等组织相继发布应用层安全标准13项,主要针对不同应用领域的人工智能技术、服务和产品的具体应用场景建立标准,以保障其安全[80]。
1.3.2 人工智能安全与法律
推进人工智能和数据安全相关方面的立法工作。在国家层面,推进《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》及人工智能相关法律的出台,制定人工智能数据安全法律原则与标准,确立不同参与主体在人工智能生命周期各阶段所享有的数据权利与承担的安全责任,设立人工智能数据安全问责制和保护制度,并对与人工智能相关的数据过度采集、偏见歧视、资源滥用、深度伪造等突出问题进行规制,为人工智能数据安全管理提供基本法律依据[81]。
完善人工智能数据安全领域相关部门规章制度。依据国家相关法律,结合人工智能在不同领域中的应用特色,针对各领域突出的数据安全风险问题,制定和细化相关部门规章,制定对所属领域的人工智能算法设计、产品开发和成果应用等的数据安全要求。
加强人工智能数据安全执法监督。加强对人工智能数据采集、使用、共享等高风险环节的安全监督,特别是对数据过度采集、数据资源滥用、侵犯个人隐私、违背道德伦理等行为加大执法惩戒力度,规范人工智能数据安全事件调查取证方式和法定程序,促进人工智能数据安全法律和规章的有效落地执行。积累执法经验并总结不足,形成反馈机制,持续完善相关法律和部门规章。
1.3.3 人工智能安全伦理道德
对于人工智能的安全性问题,国际范围内的学术界、国家和国际组织,以及著名的政治、经济、社会活动家,从科学与技术、社会、政治、经济、国家关系和国家安全等方面进行了大量的讨论。我国非常重视人工智能的安全问题,明确在大力发展人工智能的同时,必须高度重视其可能带来的安全风险和挑战,加强前瞻预防与约束引导,最大限度地降低风险,确保人工智能安全、可靠、可控发展,为我国人工智能,尤其是人工智能安全工作,确定根本的指导原则。需要强调的是,人工智能安全问题不只是技术问题,解决此类问题既涉及工程和技术科学,又涉及技术标准、伦理与道德、法治、政策与社会管理等的协同治理。在伦理层次上,确立人类优先的原则,在设计可自主学习的人工智能算法时,要求设计者将伦理准则嵌入人工智能系统,防止人工智能系统带来违背伦理的衍生安全风险。
1.3.4 人工智能安全评估评测
以安全标准为引领,开展安全评估评测能力建设。研究机构和科技企业共同开展人工智能产品、应用和服务的安全评估评测技术攻关。持续积累安全检测样例库、测试样本库等知识资源,搭建共享数据集,研发测试工具集,构建人工智能安全检测认证的公共服务平台。以技术手段为工具,切实规避人工智能产品和应用的问题缺陷与安全风险。建立评估专家库和可行动态评估机制,实现人工智能安全的评估评测能力。