继Alpha Go战胜围棋高手李世石后,对话机器人ChatGPT的出现再次掀起人工智能讨论热潮。ChatGPT是OpenAI开发的文本生成式对话应用,具有强智能、强交互、广应用等特点。然而,以ChatGPT为代表的生成式人工智能给人类社会带来经济、法律、伦理等诸多挑战,本文主要从ChatGPT的伦理挑战为视角进行分析。
(资料图片仅供参考)
一、 人工智能伦理概述
伦理是人们相互关系的行为准则。人工智能伦理是关于人和人工智能相互关系的准则,是开展人工智能研究、开发、管理、供应和使用等科技活动需要遵循的价值理念和行为规范。
为符合实践需要,人工智能伦理形成以人工智能伦理原则为出发点的概念建构模式。
一是,多个国家和地区通过发布人工智能伦理原则的方式,阐述人工智能伦理治理的基本目标和要求。如国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理8项原则,丰富了人工智能伦理的内涵,提出了人工智能伦理治理的要求。
二是,国际组织通过发布人工智能伦理原则,推进人类共同理念的达成,促进人工智能领域的国际合作。如联合国教科文组织在《人工智能伦理问题建议书》中提出公平和非歧视、可持续性、人类的监督和决定、透明度和可解释性等10项原则,提出负责任人工智能发展的全球治理目标。
三是,科技企业形成围绕人工智能伦理原则的伦理风险治理体系。如微软提出负责任人工智能应当符合公平性、可靠性和安全性、隐私性和安全性、包容性、透明度和问责制6项原则,并围绕相关原则制定负责任人工智能的标准、开发相配套的技术工具。
二、ChatGPT的技术特点及风险
ChatGPT是由大数据驱动、大模型支持,并能广泛应用的人工智能产品。OpenAI为减轻ChatGPT的伦理风险,开发了产品部署流程、基于人类反馈的强化学习(Reinforcement Learning from Human Feedback,RLHF)等管理和技术工具。然而,ChatGPT还是引发了人机关系的新挑战、放大了人类社会固有的伦理问题。
从“人——机”关系角度看,ChatGPT对人与机器的情感关系、人的劳动价值、人的主体意识等人机关系伦理形成冲击。虽然ChatGPT不属于强人工智能,但ChatGPT已在教育、金融、法律、游戏等不同领域展开丰富实践应用。同时,业界推测ChatGPT依托的大模型可能已经出现涌现能力(Emergent Ability),人工智能的发展走向更多未知,人机关系的协调出现诸多新挑战。一是,语言体系丰富、能够联系上下文进行对话、具备“角色扮演”功能的ChatGPT可作为陪伴者和用户进行实时互动,人类对机器产生情感和依赖的可能性增加,影响人的心理状态。二是,能够进行文字生成、代码生成、策略推荐等工作的ChatGPT引发人类对于劳动替代的忧虑,伴随ChatGP开放API接口,更加丰富的应用场景和功能将可能对更多行业的从业者产生冲击。三是,智能机器的快速发展对人的文化创造产生冲击。ChatGPT能做到智能写诗,但却可能消解人的创作热情;ChatGPT在文本生成方面的误用滥用会将可能影响知识学习的过程,对人类智识的提高产生负面影响。
从“人——人”关系角度看,基于大数据训练的ChatGPT能放大人类社会固有的偏见,并可能因为技术滥用引发社会信任危机。一是,互联网数据记录了人类社会潜在的歧视与价值对抗,ChatGPT可能输出明显具有偏见的对话内容,不仅影响用户的判断,更可能因为大量文本的广泛传播应用,加深社会偏见。二是,ChatGPT选取出现概率较大的语料进行内容生成,模型为追求内容的准确性可能以丧失文化的多样性为代价,对人类社会的价值多样性形成挑战。三是, ChatGPT具有强大的自然语言处理能力,能够“一本正经地说”,但由于其数据和算法限制,又有“胡说八道”的可能性。然而,为回应用户需求,ChatGPT能够批量生产大量虚构信息,且无法控制生成内容的误用和滥用。同时,合成文本相较图片、声音等更具传播优势,也更难判断其是否属于人工智能生成内容。对ChatGPT的误用和滥用将对人与人之间基于信赖的交往产生冲击。
图 1 ChatGPT特点(来源:ChatGPT官网)
三、 生成式人工智能伦理治理的未来展望
以ChatGPT为代表的人工智能技术发展可能将人类社会带入新的阶段,人工智能伦理治理的目标在于鼓励技术的良性发展,为可持续的创新提供保障。
企业发挥人工智能伦理治理的主体作用。企业在人工智能伦理治理中从伦理意识、机制设置、技术开发等方面发挥最基础和最主要的作用。一是,加强人工智能伦理治理意识。企业通过明确人工智能伦理原则、建立人工智能伦理审查机构、明晰人工智能伦理审查流程等,形成人工智能伦理治理从意识到实践的落地机制。二是,细化和完善人工智能产品的全流程管理。如企业可在设计研发阶段,即评估技术和产品的伦理风险;在测试阶段,将产品从封闭环境逐步引入开放复杂的社会环境,不断弥补产品伦理漏洞,将伦理风险控制在发展早期;在产品上线后,通过使用情况审查、速率限制等方法,减轻产品滥用可能性;最后,对伦理事故进行详细的回顾审查。三是,通过技术手段提升伦理治理能力。企业可通过开发数据偏见和公平性评估工具、模型安全评估工具等加强人工智能伦理风险的技术应对。
多主体参与人工智能伦理治理的合作机制。人工智能伦理治理是用户、企业、行业等多方主体的协作。一是,用户在与人工智能的互动中提出现实世界的问题,为产品优化提供数据,并通过对产品风险漏洞的讨论与反馈等协助生成式人工智能向善发展。二是,企业通过明晰人工智能技术缺陷、开源人工智能伦理治理工具等,为更多开发者提示人工智能产品的伦理风险,提供伦理治理方法和工具。三是,行业组织密切产业主体,通过团体指南、行业标准等方式推动行业对人工智能伦理治理共识的建立,促进行业自律。
加强国际合作应对人工智能伦理风险。技术发展的全球性给数字时代的人类带来机遇和挑战,人工智能伦理治理也成为国际治理合作的重要契机。政府间国际组织、国际学术团体、行业组织等在尊重各国、各领域人工智能治理的原则和实践下,推动形成以增进人类福祉为目标的国际人工智能治理框架和标准规范。