人工智能的发展始终与伦理同行。人工智能技术迅速迭代,推动我国科技伦理制度的完善。近期,工业和信息化部会同多个部门起草了《人工智能科技伦理管理服务办法(试行)(公开征求意见稿)》(以下称《办法》),科技伦理规范由此在组织和技术层面深刻嵌入人工智能。《办法》体现人工智能规范体系建设的中国智慧,为人工智能伦理治理提出示范方案。结合产业和技术动向,未来可以探索伦理规范和伦理主体向个体用户和人工智能本身的拓展。
科技伦理嵌入开展人工智能科技活动的组织架构中。《办法》第九条规定:“从事人工智能科技活动的高等学校、科研机构、医疗卫生机构、企业等是本单位人工智能科技伦理管理服务的责任主体。有条件的单位应设立人工智能科技伦理委员会。”人工智能科技伦理委员会(以下称委员会)包括人工智能技术、应用、伦理、法律等相关背景的专家,其主要职责包括指导科技人员开展科技伦理风险评估、按要求跟踪监督相关科技活动全过程、组织开展科技伦理知识培训,等等。循此,开展相关科技活动的组织可以通过设立委员会并发挥其指导、监督、培训职责,在组织架构和活动流程中内化科技伦理。
科技伦理嵌入人工智能系统生命周期的各个环节中。《办法》第十五条规定:开展人工智能伦理审查重点关注公平公正、可控可信、透明可解释、责任可追溯和人员资质等五个方面。其中,前四方面涵盖数据的完整性和多样性、算法模型和系统设计的合理性、系统设计的鲁棒性和系统运行的持续监测,等等,并且要求“采取日志管理等措施清楚记录数据、算法、模型、系统各个环节的相关信息,保障全链路可追踪和管理,出现问题时可精准定位具体环节并确定责任人”。换言之,从开发研发时采集数据、设计系统,再到完成之后投入应用、持续运行,人工智能系统的各个环节都要符合科技伦理规范。
科技伦理在组织和技术层面深刻嵌入人工智能,体现了人工智能规范体系建设的中国立场。从全球角度看,如何安置科技伦理在人工智能规范体系中的位置,如何处理科技伦理和法律规范的关系,长期以来没有公认的答案。2024年,欧盟《人工智能法》正式通过。其序言部分第25条明确指出:人工智能的各项伦理原则一方面有助于设计融贯、可信赖、人类中心的人工智能系统,另一方面不能阻碍《人工智能法》和其他欧盟法律的实施。换言之,法律优位于伦理,不在人工智能专门立法中设置伦理审查或类似制度。《办法》体现了另一种思路,更重视科技伦理和法律规范形成合力、双向衔接。未来,随着人工智能时代科技伦理更加重要,《办法》可能为人工智能全球治理提供示范。
结合产业和技术动向,可以探索科技伦理规范向个人用户的拓展。当前,高等学校、科研机构、医疗卫生机构、企业等单位是科技伦理规范责任主体。随着人工智能日益融入社会生活,个体用户使用人工智能的场景和频率增加。对其自身和其他用户造成损害的可能性概率和严重程度,同样相应增加。如果个体用户因使用人工智能成瘾而遭受严重损害,此时很可能需要伦理规范的介入;又如个体用户使用人工智能“复活”追思逝者,可能导致更复杂的伦理问题,等等。在人工智能时代,个体更有必要具备一定的科技伦理素养。可从素养培育入手,在已有公认伦理判断的场景中以柔性方式逐步建立规则。
结合产业和技术动向,可以探索科技伦理主体向人工智能本身的拓展。当前,人工智能系统只是伦理审查的对象之一。如《办法》第二十一条和附件一规定:对于面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统,在开展科技伦理初步审查的基础上,还需要由相关专家开展复核,确保其在公平公正、可控可信等各个方面符合要求。2024年来,国际上开始出现关于人工智能福祉的研究。换言之,承认人工智能伦理主体地位,探索界定和尊重其福祉。少数前沿人工智能企业开始在发布人工智能前实施福祉评估,甚至允许人工智能主动中止和用户的对话。当然,人工智能福祉的研究,一方面才刚刚起步,另一方面如果取得结论,在政策上、产业上、学理上可能产生很大的影响。总之,值得深入研究,目前还不成熟,有待更多的探讨。
作者:同济大学法学院助理教授、上海市人工智能社会治理协同创新中心研究员朱悦