(CWW)最近,火爆全球的ChapGPT,其应用引发的伦理与安全挑战日益凸显。3月30日,非营利组织人工智能与数字政策中心(CAIDP)向美国联邦贸易委员会(FTC)投诉称:GPT-4“有偏见性,欺骗性,对隐私和公共安全构成风险”。CAIDP认为,OpenAI违反了FTC对人工智能(AI)产品的指导,并违反了FTC法案第5条,该法案禁止不公平和欺骗性的商业行为。3月29日,一份由一千多名科技专家签署的题为《暂停大型人工智能研究》公开信引起了全球的广泛关注,这些科技专家包括图灵奖得主约书亚·本吉奥(Yoshua Bengio)、特斯拉CEO埃隆·马斯克(Elon Musk)、苹果公司联合创始人史蒂夫•沃兹尼亚克(Steve Wozniak)、DeepMind高级研究科学家扎卡里·肯顿(Zachary Kenton)等AI领域的企业家、学者、高管。
笔者注意到,这些AI专家们在信中强烈呼吁:所有AI研究室立刻暂停训练比GPT-4更加强大的AI系统,为期至少6个月,并建议各大企业、机构共同开发一份适用于AI研发的安全协议,同时信中还提到各国政府应当在必要的时候介入其中。截至目前,已有1125人签名支持这封公开信。公开信中指出,目前AI技术在很多领域已经取得了很大的进展,但是这些进展也带来了一些潜在的危险。例如,一些研究人员担心,超强的AI可能会在未来对人类产生威胁,因此需要对这项技术进行更加深入的研究和探讨。此外,公开信中还提到了AI技术可能会对社会带来的影响。例如,一些人担心AI技术可能会取代很多人类工作,从而导致失业率的增加。此外,一些人还担心AI技术可能会对社会的隐私和安全造成威胁。
(资料图片)
因此,这份公开信呼吁暂停大型的AI项目,以便对这项技术进行深入的研究和探讨。此外,这份公开信还呼吁政府、学术界和产业界等各方加强对AI技术的监管和控制,以确保这项技术能够更好地服务于人类,而不是对人类产生威胁。
目前,世界多国教育系统及相关从业者已公开抵制ChatGPT。美国多所大学已宣布计划减少居家评估,增加手写论文和口试。纽约市、巴尔的摩和洛杉矶的学区都叫停了学校管理的网络访问聊天机器人。在澳大利亚,一些大学表示他们将恢复只使用监考的笔试考试来评估学生。法国顶尖学府之一的巴黎政治学院也宣布禁止使用ChatGPT。
科技伦理是科技创新和科研活动中人与社会、人与自然以及人与人关系的思想与行为准则,它不只是涉及科学研究中的伦理,也不只是科研人员要遵守科技伦理,还包括科技成果应用中的伦理。科技伦理是理性的产物。其底层逻辑,要求科技创新和成果只能有益于或最大限度地有益于人、生物和环境,而不能损伤人、损害生物和破坏环境,即便不可避免地会不同程度地损人毁物——如药物的副作用,也要把这种副作用减少到最低,甚至为零。在具体的伦理规则上,还应两利相权取其大、两害相衡择其轻。
生成式AI(Generative AI或AIGC)是利用现有文本、音频文件或图像创建新内容的技术。ChatGPT是生成式AI的特定实现 ,旨在生成文本以响应对话设置中的用户输入,刚刚问世的ChatGPT已经引发全球对生成式AI伦理问题的高度关注。事实上,ChatGPT的应用正在对社会结构构成了真实而迫在眉睫的三大威胁:一是数据安全的威胁,ChatGPT以海量信息“为食”,数据量越大、数据越新,其功能性越好。这意味着要保证良好的用户体验,它必须在社会各领域中获取足够多和准确的知识和信息,但问题在于,许多信息涉及商业机密、国家机密和个人隐私,获取和利用这些信息本身存在合法性问题,一旦重要数据泄露,造成的损失到底是由泄露数据的人承担,还是由披露数据的ChatGPT承担;二是对人才教育的威胁,ChatGPT被学生用于完成作业和撰写论文对教育界和学术界造成了重大的冲击。调查显示,美国有89%的学生用ChatGPT写作业,目前尚未研究出可准确检测这种作弊行为的技术性方法。利用ChatGPT完成学业任务的高质量和高效率远超此前的系列解题软件,它可以完美避开查重等问题,这使其极具诱惑力。人类教育的意义本来就是为了培养社会人才、推进人类历史的进步,而ChatGPT作为当前智能机器人的一个前沿成果,却替代人类完成人才培养的任务,这是及其可怕的;三是意识形态渗透的威胁。ChatGPT的数据输出功能承载着后台技术操控者的话语权,用户越多、使用范围越广就意味着其话语权越大、价值渗透力越强。ChatGPT是有政治立场和价值取态的,操控者的价值观存在历史和文化的偏见、歧视,就会通过ChatGPT的“放大镜”昭然于世,误导用户,扭曲大众价值观,引起社会动荡,妨害社会公平正义。另一方面,在国际竞争日益激烈的背景下,各种社会思潮此起彼伏。ChatGPT一旦面向大众,势必会代表以美国为首的发达资本主义国家发起意识形态渗透的攻势,成为意识形态渗透的重要工具。
早在2016年,标准制定组织IEEE就发布了一份题为《利用人工智能和自主系统(AI/AS)最大化人类福祉的愿景》的报告,该报告提出了一个发展人工智能的一般性原则,主要涉及AI可靠性以及高层次的伦理问题,报告认为,人工智能发展的一般性原则将适用于所有类型的人工智能和自主系统。在确定一般原则时,主要考虑三大因素:一是体现人权;二是优先考虑最大化对人类和自然环境的好处;三是削弱人工智能的风险和负面影响。
笔者建议,各国在研发生成式AI时,应当建立健全公开透明的AI监管体系,重点在生成式AI的设计问责和应用监督并重的双层监管结构上做充分的准备,实现对AI算法设计、产品开发和成果应用等的全过程监管。促进生成式AI行业和企业自律,切实加强生成式AI协同一体化的管理体系,加大对生成式AI领域数据滥用、算法陷阱、侵犯个人隐私、违背道德伦理等行为的惩戒力度。
在生成式AI技术研发的同时,要加强人工智能相关法律、伦理和社会问题的同步研究,尤其要关注生成式AI模仿人类传播错误信息或将商业无人机转化为目标武器攻击人类,建立和优化保障生成式AI健康发展的法律法规和伦理道德框架。
法律研究领域要开展与AI应用相关的民事与刑事责任确认、隐私和产权保护、机器伦理与破坏力评价等伦理与法律问题的交叉研究,建立生成式AI的可追溯和问责制度,明确人工智能的设计者、控制者、使用者等相关法律主体的权利、义务和责任。
建议各国进行生成式AI相关法律、伦理和社会问题的国际合作和交流,建立保障生成式AI健康发展的法律法规和伦理道德框架,确保人工智能在伦理规范和法律框架下健康发展,⿎励跨学科、跨领域、跨地区、跨国界的交流与合作,推动形成具有⼴泛共识的⼈⼯智能伦理治理框架和标准规范。