运用法治观念、法治思维和法治手段为互联网健康有序发展提供保障,已经成为共识。随着科技的发展,生成式人工智能服务在带来生产力巨大变革的同时,也存在算法偏见、信息泄露、内容造假等安全隐患。近日,国家互联网信息办公室发布了《生成式人工智能服务管理办法(征求意见稿)》(以下简称《征求意见稿》),对生成式人工智能服务进行了框架性规范。
《征求意见稿》释放了哪些信号?系好“安全带”,对生成式人工智能健康发展和规范应用有何作用?本期将相关的媒体报道进行梳理汇总,以飨读者。
平衡安全与发展——
促进生成式人工智能健康发展和规范应用
生成式人工智能,是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。近来大火的ChatGPT即属于此类技术。
《征求意见稿》的公布,距离2022年11月30日对话式AI模型ChatGPT的发布不足5个月时间,如此高效出台,释放什么信号?
在中国科学技术大学网络空间安全学院副院长张卫明看来,这种高效监管显示出国家层面对生成式人工智能的支持与重视。《征求意见稿》提出多维监管意见,强调保护,防止“滥用”,有助于国内生成式人工智能服务健康发展。“《征求意见稿》明确提出,‘国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作’,制定本办法的目的是‘促进生成式人工智能健康发展和规范应用’”。
北京大学信息化与信息管理研究中心主任黄文彬表示,《征求意见稿》发出了生成式人工智能需要在维护国家安全和社会稳定、保障公民和其他组织的合法权益的前提下研究发展与技术应用的信号。“这个管理办法为保护个人、国家甚至全球安全将起到重要作用。尤其是在生成式人工智能日益广泛应用的当下,人们需要足够的专业知识才能判别智能产品输出结果的真伪优劣,这些结果可能会影响个人的品德思想与行为规范。一旦出现问题,可能会对整个社会或国家产生负面影响,这种负面影响有可能超过服务提供者或用户的可控范围。”
中国人民大学未来法治研究院副院长王莹认为,目前,生成式人工智能仅生成文本、图像、声音等信息内容,并不会像传统的产品瑕疵那样直接导致生命健康安全问题,其作为一个人工智能产品最多涉及到人格权侵权、著作权侵权。生成式人工智能引发侵权问题,可能来自于人工智能本身的漏洞或技术现有水平,人工智能的学习训练到生成的过程并不是完全可解释和可控的。2022年9月通过的欧盟《人工智能民事责任指令》规定只有高风险的AI应用才承担AI严格责任。最新的欧盟《人工智能法案》的立法讨论也未将ChatGPT简单界定为高风险AI应用,该技术是否属于高风险AI应用,或者将其作为通用人工智能跨越高风险、低风险的分类视为一种新的类别加以监管,仍然是一个开放性的问题。
监管措施迎头赶上——
应按照个人信息保护法遵守个人信息保护义务
虽然生成式人工智能技术正在或即将引发生产力变革,但其产生的风险和挑战不能忽视。
比如,生成式人工智能技术会根据要求生成有说服力且有针对性的虚假信息;它还可能回答如何自杀、如何制造化学武器等可能导致严重后果的问题。诸如此类新现象,都需要监管的与时俱进。
记者梳理发现,不少国家重视生成式人工智能的监管。英国政府于3月发布了第一份人工智能白皮书,概述了人工智能治理的5项原则。当地时间3月31日,意大利个人数据保护局宣布,从即日起禁止使用聊天机器人ChatGPT,限制其开发公司OpenAI处理意大利用户信息,并立案调查。美国商务部近日就相关问责措施正式公开征求意见,包括新人工智能模型在发布前是否应经过认证程序。
黄文彬表示,全球范围内加强生成式人工智能的监管力度,意味着数据安全和隐私保护已经成为生成式人工智能发展的重要前提。我国选择生成式人工智能作为规制对象并积极发布《征求意见稿》,这在全世界范围内都是走在前列的。
“人工智能技术存在着较大的不确定性和不可控性,应该接受严格的安全评估,需要监管来确保这些安全措施得以实施。”张卫明说,随着更多应用落地,一些潜在的风险将被认识和暴露,《征求意见稿》只是第一步。
对外经济贸易大学数字经济与法律创新研究中心主任许可表示,按照《征求意见稿》第九条,提供生成式人工智能服务应当按照网络安全法规定,要求用户提供真实身份信息。网络安全法中的实名制是指发布信息阶段的实名认证,也就是说如果只是单纯的浏览模式,原则上是不需要用户实名的。用户开始使用AIGC时是否需要实名认证,这是一个需要讨论的问题,如果用户没有实名制的话,AIGC并不会直接或间接的识别这个特定的人,很可能不存在个人信息保护的问题;但如果有实名认证,用户提供的信息就可能构成个人信息,AIGC产品提供者应按照个人信息保护法遵守个人信息保护义务。
守住“安全底线”——
尽快提出相应技术方案确保其不被滥用
防止生成式人工智能滥用,在充分发挥政府监管职能的同时,也需科技企业提前布局,发挥技术能力守住“安全底线”。
黄文彬表示,生成式人工智能只是一个工具。技术本身没有好坏之分,但应用技术时需要重点考虑智能产品情境背景的适用性、使用方式的合理性和应用目的的正确性。比如,在用户相对感觉心理孤独空虚的情景下,智能产品可以提供聊天陪伴,以舒缓用户心理为目的。然而,假如该产品提供偏颇甚至具有负面倾向性的聊天内容,可能会使用户产生自杀、暴力、歧视等问题,对个人及社会产生较大的伤害。
《征求意见稿》也提出,利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息;尊重他人合法利益,防止伤害他人身心健康,损害肖像权、名誉权和个人隐私,侵犯知识产权;禁止非法获取、披露、利用个人信息和隐私、商业秘密等。“这些规定都是为了促进人工智能技术的健康发展和规范应用。”张卫明说。
“针对这些问题,需要我们在发展技术的同时,对于ChatGPT应用边界加以管控,建立起对人工智能生成内容的管理法规,对利用人工智能生成和传播不实不良内容进行规避。同时加强治理工具的开发,通过技术手段识别人工智能生成内容。这对于内容检测和作品确权,都是重要前提。”北京瑞莱智慧科技有限公司副总裁唐家渝说。
“比如虚假信息检测技术,国外已经布局,我们的安全技术专家、安全技术企业也应尽快提出相应的技术方案。”张卫明认为,再先进的科技都需要人来使用、人来控制、人来确保安全。实施更全面的人工监管,时刻关注技术的安全性,确保其不会被滥用,才能充分发挥人工智能的潜力。
(据新华网 人民网 法治网综合整理)