近日,国家网信办等七部门联合公布《生成式人工智能服务管理暂行办法》(以下简称《办法》)。《办法》明确了促进生成式人工智能技术发展的具体措施,涵盖技术发展与治理、服务规范、监督检查和法律责任等方面,将于今年8月15日实施。
人工智能技术是引领新一轮科技革命和产业变革的战略性技术,具有很强的“头雁”效应。随着算力爆发、海量数据资源汇聚,具备文本、图片、音频、视频等内容生成能力的生成式人工智能技术发展迅速,改变了知识信息的生成方式,并对人类的生产生活产生了重大影响。
然而,技术是把“双刃剑”,在给人类带来便利的同时,也引发了一系列法律风险。比如,生成式人工智能技术在为用户提供服务时,需要用户输入相关信息,若服务提供者非法留存用户信息或泄露用户信息,则将侵害用户个人信息权益。在生成式人工智能的运行过程中,若加工整理的资料未经作者同意许可,则将侵害作者的著作权。生成式人工智能服务提供者如果将涉及商业秘密的数据用来供人工智能学习,那么用户在使用时,就可能导致涉及商业秘密的数据被他人非法获取和处理,从而造成商业秘密泄露。
法律是应对风险的有效工具。目前,我国在应对人工智能技术风险方面,已制定实施了网络安全法、数据安全法、个人信息保护法、《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等法律法规,以及《新一代人工智能伦理规范》《新一代人工智能治理原则——发展负责任的人工智能》《人工智能伦理治理标准化指南》等伦理规则及技术标准。这些构成了人工智能发展中的风险防范体系,对于治理人工智能可能引发的相关问题起到了一定作用。
不过,相较于其他人工智能技术来说,生成式人工智能技术大算力、强算法特征更加明显,也使得其处理的数据量更多、范围更广、层次更深,从而更易引发网络安全、数据安全、个人信息保护、知识产权等风险,并且风险隐蔽性更高、传导性更强、损害后果更为严重。此外,生成式人工智能技术应用场景的广泛性也使其存在更多被人为滥用的风险,亟须专门规定予以特别规制。
此次,多部门联合制定《办法》,即是积极应对生成式人工智能挑战的重要举措。《办法》基本涵盖了生成式人工智能服务在应用过程中可能暴露出来的安全及风险问题。如为防范生成式人工智能所引发的侵害个人信息权益、知识产权、商业秘密等风险,《办法》从义务和责任两方面对生成式人工智能技术提供者和使用者的行为进行了规定,并明确了生成式人工智能技术提供者违反相关规定所应承担的法律责任。
在监管方式上,除了安全评估、算法备案、标识等制度外,还提出国家有关主管部门针对生成式人工智能技术特点及其在有关行业和领域的服务应用,完善与创新发展相适应的科学监管方式,制定相应的分类分级监管规则或者指引。这些都充分体现出《办法》与生成式人工智能技术特点的高度契合,体现了遵循创新与规制相结合的原则,既直面生成式人工智能技术发展中存在的各类问题,又鼓励创新应用、支持多方协作等,为生成式人工智能技术的发展营造创新成长环境。
技术的健康发展需要坚持发展与安全并重,需要法治保驾护航。相信《办法》的实施能够在促进技术进步、维护网络安全等方面起到更加积极的作用。当然,生成式人工智能技术还只是人工智能发展长河中的一朵小浪花,在追求自主意识、类人化、完全智能的通用人工智能过程中,各种新技术、新情况将层出不穷,面临的防范风险和维护安全的任务将更加艰巨,人工智能发展对法治的需求也会越来越高。为此,有关方面要不断加强对人工智能技术发展规律的研究和认识,不断完善法律规范、伦理规则及技术标准三者协调统一的风险防范体系,促进人工智能在法治轨道上前行,让技术更好造福社会。
作者:侯东德(西南政法大学人工智能法律研究院院长、中国人工智能学会人工智能伦理与治理工作委员会副主任)