人工智能(AI)是推动科技跨越发展、产业优化升级、生产力整体跃升的关键驱动力量。最近,ChatGPT再次引发全球对新一代AI的广泛关注,主要经济体竞相加快AI技术创新和产业布局。但如何应对AI快速发展带来的治理和监管挑战,也是当今世界各国面对的共同问题,探索解决AI治理问题迫在眉睫。
以ChatGPT为代表的生成式AI带来监管治理新挑战
(相关资料图)
2022年11月底,OpenAI发布了ChatGPT,把AI应用拓展到新水平。ChatGPT属于机器学习大类,是典型的生成式AI。生成式AI是指可用于创建音频、代码、图像、文本、模拟和视频等新内容的算法,除ChatGPT外,比较典型的还有DALL-E(可生成图像的AI工具)。伴随生成式AI越来越多地无缝融入商业、社会和个人生活,一系列新的风险挑战也逐渐凸显。
一是商业应用面临潜在风险隐患。一方面,应用门槛降低。“低代码”和“无代码”AI工具使得集成、构建和部署AI应用程序变得便宜而容易。这意味着小微企业甚至个人,就可以使用AI和机器学习技术。另一方面,信息不对称加剧。开发生成式AI模型的“上游开发人员”,无法预估应用该模型的全部场景。而未参与原始模型开发的“下游开发人员”,又可能会调整模型并将其输出集成到更广泛的软件系统中,开发出新的应用场景。由于上游和下游开发人员均无法全面了解、完全控制整个AI系统,商业应用中出现错误和意外的可能性大大增加。
二是恶意使用带来安全伦理问题。一方面,生成式AI模型可能创建未经同意的内容,包括自动生成仇恨言论、有针对性的骚扰或虚假信息等。此类模型已经被用于设计更具说服力的骗局,例如帮助欺诈者模仿CEO的声音以获得汇款。虽然在数字生态系统中,上述情况屡见不鲜,但是生成式AI的扩散可能会使情况变得更糟。另一方面,隐私保护面临空前严峻的挑战。据美联社3月9日报道,美国政府工作人员的健康保险出现安全漏洞,数百名国会议员及其家人的敏感信息被盗。生成式AI需要大量训练数据作为支撑,其中可能包括涉及企业机密和个人隐私的敏感数据,社会公众倾向于认为设备供应商可能在机器上设置“后门”,用来远程控制系统或窃取信息。
三是算法偏见加剧弱势群体歧视。一方面,算法偏见存在于不同人群之间,弱势群体容易被算法忽视。算法开发和应用常常忽略性别、年龄等方面的弱势群体,甚至可能诱导不道德活动或犯罪活动,这些弱势群体因此可能受到不同程度的伤害。特别是一些未被发现和未被处理的潜在偏见,可能会使决策结果缺乏准确性和公平性,还可能使系统开发人员和用户因违背反歧视法而承担法律责任。另一方面,一些历史偏见常常在不知不觉中“镶嵌”入算法之中。
美欧尝试在AI监管规范性和灵活性之间取得平衡
近年来,美欧等主要经济体争相推进AI治理探索。美欧治理模式有较大差别,虽然两者的AI治理都不是纯粹的“横向”或“纵向”,但相比之下,欧盟的AI治理思路更偏“横向”,力求通过一个总的法案约束所有领域、所有类型的AI;而美国的治理则更偏“纵向”,不同领域、不同系统分别制定了具有约束力的AI治理指南。
欧盟治理模式。2021年4月,欧盟委员会发布了拟议的《AI法案(草案)》,力求建立一个基于分层风险类别的AI开发、部署和应用的安全框架。该法案的核心是将 AI 应用程序分为不可接受的风险、高风险和其他风险等类别,每个类别都由一组预定义的监管工具进行管理。该 AI法案模糊地定义了每个风险等级的“基本要求”,对每个类别施加了不同限制。
该法案的特点在于:一是力求通过“横向”立法,使用一部单一法案监管几乎所有AI使用,该法案成为全球首个应对AI风险的法律框架。AI法案确定了要监管的AI应用范围,同时允许具体领域的机构确定确切的参数和合规策略。该框架在提供可预测性和跟上AI发展步伐的双重要求之间取得了平衡。二是该法案使用基于风险等级的监管方案,允许监管机构随着AI用途的发展,将新的应用领域划入已有的风险类别,从而在监管规范性和灵活性之间取得平衡。同时,该法案模糊化定义风险等级边界,也缓解了纯横向立法带来的“过于死板”的“一刀切”问题。但是也要看到,该模式也存在若干问题,比较突出的是,法案对监管机构要求较高,负责执行法案的各个监管机构可能在监管能力方面存在差异,从而破坏横向治理的协调优势。
美国治理模式。2022年10月,美国发布《AI权利法案蓝图》,确定五项原则:系统的安全有效性、免受算法歧视、确保数据隐私权、AI系统的使用通知及其对用户潜在影响、退出AI系统的能力。美国治理模式的主导思想是,将监管视为一种阻碍创新的行为,认为必须“避免妨碍AI创新和增长的不必要的监管或非监管行动”。总体来看,美国还是强调“少管”,除必要点外,能不管就不管。
美国治理模式的最大特点在于偏“纵向”,目前尚未形成统一的AI立法,更多依靠地方自治、行业规则和个人诉讼等方式解决生成式AI带来的问题,各部门分别出台本领域的监管指南。在该蓝图发布前后,至少有美国国防部、平等就业机会委员会、劳工部等五个联邦机构通过了负责任地使用AI系统的指南。
同时,美国模式也有显而易见的缺陷。例如,《AI权利法案蓝图》着眼于私营部门的自我监管,但是,对于通常从AI不透明性中获利的企业来说,这种期望可能不太现实。再如,该蓝图虽然提到贷款、招聘等领域的公民权利保护和可解释性,但是,由于互联网和算法应用程序上存在不透明性,影响算法模型运行方式的因素通常不会告知消费者,如何确保公民权利的保护和可解释性仍然未知。再如,该蓝图没有提供强制性、可执行的指导方针,并且缺乏明确的执行制度。
加快构建AI监管治理新模式
近年来,我国在AI治理方面进行了多方探索,并在全球率先推出两项针对推荐算法和深度合成技术的生成式AI治理法规。2021年12月,国家互联网信息办公室等四部门联合发布《互联网信息服务算法推荐管理规定》。2022年11月,在ChatGPT发布的同时,国家互联网信息办公室等三部门联合发布《互联网信息服务深度合成管理规定》,明确了生成式AI应用服务提供者、技术支持者和服务使用者等各方的法定义务,在生成式AI法律监管方面迈出重要一步。今后一个阶段,适当借鉴美欧经验做法,兼顾“横向”和“纵向”治理,从三个方面着手,逐步构建起符合我国实际的AI治理模式。
一是推动监管领域的技术创新。AI发展速度之快,已经超出传统监管体系的约束能力,监管技术落后已经成为制约监管能力提升的主要障碍之一。未来几年,监管技术创新可在发现未知漏洞、检测恶意活动、采取对策防御等几个方面集中发力。同时,为相关应用建立AI工具的动态测试、验证和认证标准,围绕AI的研发制定共同规范,并考虑约束该领域的知识和能力扩散。
二是制定完善人工智能法律体系。特别是要通过法律的形式,对AI治理的核心概念达成共识,对隐私保护、数据治理等有争议的问题,必须进行深入研究。明确AI使用的价值观、知识产权、隐私权等伦理问题,规范透明度、安全性和问责制等使用问题,建立监管规则、技术规范等,强化AI的正面作用,减少AI的负面影响。同时,明确AI治理机构,建立AI监管体系。
三是引导实施AI全生命周期治理。关键在于调动AI参与者的积极性,引导AI参与者对其开发和使用的AI系统承担责任,确保AI系统是值得信赖的,即:AI系统能够造福于人,尊重人权和公平,确保AI系统是透明的和可解释的。为实现这一目标,要引导参与者制定一套AI风险管理动态机制,实施AI系统规划和设计、数据收集和处理、模型构建和验证,以及部署操作和监控的全生命周期治理。