网站首页
数字报首页
版面导航
第01版:头版
第02版:要闻
第03版:基层
第04版:国内
第05版:人大周刊
第06版:人大周刊
第07版:理论
第08版:区域
标题导航
典型案例助推贵州省破产法治发展
AI传媒新局下传播法律困境突围探析
未成年人涉网犯罪态势、生成机理及其治理研究
版面概览
通版阅读请点击:
展开通版
收缩通版
当前版:07版
首版
上一版
下一版
末版
发布日期:
文章标题
文章内容
文章作者
上一篇
下一篇
字体:
放大
缩小
默认
AI传媒新局下传播法律困境突围探析
■汪杨舜 刘毅
AI技术宛若一场风暴,强势席卷了传媒行业,为传媒业带来一场深远的变革,智能写稿机器人、AI视频图文一键生成技术等出现,高效与创新,打破了传统创作与传播模式的桎梏,开启了无限可能的新大门。但,随之而来是诸多棘手难题也接踵而至,AI生成内容的版权归属仿若一座迷宫,让人深陷迷障;AI助力下虚假信息的传播似汹涌狂澜,肆意冲击着信息的真实性与社会的稳定;而在复杂的AI内容创作与传播链条中,责任主体如同雾里看花,难以精准界定。这一系列问题,不仅阻碍着传媒行业的健康发展,更对社会舆论生态与公众权益维护提出了严峻挑战。
一、AI创作的版权归属迷障
在当下,AI写稿机器人能够直接产出大量的新闻稿、AI绘图工具可以一键绘制精美的画作、AI音乐软件可以生成风格迥异的乐曲。但是,在这过程中AI生成内容的版权归属却陷入重重迷障,引发国内外诸多争议与探讨。通过深入探究AI生成内容的版权归属困境,其中便是创作主体的迷糊性,就传统版权法而言,其往往是围绕人类创作者进行构建,作品源于人类智力劳动,比如作家写作时的构思、画家作画时的笔触、音乐家的演奏等。但AI生成内容的过程截然不同,以国外OpenAI的chatGPT系列模型为例,它是通过对海量数据的收集学习与预处理,后根据用户的指令生成作品及文本,在这个过程中,“创作”的主导者难以界定,是设计模型架构的工程师,还是提供训练数据的机构,又或者是输入指令的终端用户,在这个过程中,各方都起到了作用,但却不等同于传统的创作者,使得作品版权归属不明。
于是乎,各方之间因为对AI创作作品版权归属难以兼顾的矛盾且愈演愈烈,AI创作版权归属问题由此再次成为产学界关注热点。但,就此方面现有的法律框架任存在一定的局限性。在各国的知识产权法律中大多在AI大规模普及前制定,所以其就AI数据版权问题来说难以适应新时代的需求。面对这一困境,国内外展开诸多实践探索尝试解决人工智能相关版权保护的困境,如欧盟的《人工智能法案》草案虽未直接明AI版权归属,但却在数据保护、算法透明度等方面间接的影响版权问题,严格规范数据收集使用原则,为厘清版权归属基础助力;而美国OpenAI、PerplexityAI等相关大模型企业则通过人工智能企业与版权所有者签订许可使用合同、人工智能企业引入版权声明机制,根据用户实际反馈从训练AI数据体系中撤销相关版权作品等方式,为解决版权问题提供可参考范例。同时国内同样积极行动,一方面政策法规逐步完善,《新一代人工智能发展规划》重视知识产权保护,推动建立适应AI的制度,司法实践中,北京互联网法院审理AI生成图片著作权案,综合技术原理、各方参与度等因素裁判,虽未定论归属,却提供审理思路;由此可以看出,为破解AI版权归属迷障,需多管齐下。一是完善法律法规体系,结合AI技术特点修订《著作权法》,引入“创作贡献率”概念,依各方在内容生成中的作用,如AI技术、使用者创意指令、公共数据整合的贡献率,按比例共享版权,还应制定专门AI知识产权法规,全面规制AI创作各环节权利义务主体。二是加强国际合作与交流,鉴于AI跨国应用使版权问题全球化,各国需携手,推动建立公平国际规则,要双边、多边合作分享经验,攻克技术难题,如合作识别AI生成内容来源防跨国侵权。三是提升公众意识与教育,利用社交媒体、公益广告、学术讲座等普及AI版权知识,培养创作者和使用者版权保护意识,从源头减少纠纷,而未来随着AI发展,各界也需持续关注研究,让AI在法治轨道前行,创造更多知识财富。
二、AI生成的虚假信息“传播链”
AI凭借其深度合成技术,实现对图像、声音、视频的篡改、伪造和自动生成。在为人们提供便捷的信息服务的同时,却也存在着虚假信息泛滥、网络安全等问题。当这些生成的内容达到高度逼真难以辨别的时候,往往会有不法分子利用其进行侵害他人肖像权、名誉权等等,例如某不法分子对某知名明星或网红等进行AI换脸伪造私密视频并进行贩卖,这对社会舆论与相关人士造成极大负面影响。但就目前而言深度合成技术并不为法律所禁止,所以我们更有必要制定相关规定以规制。
首先,从信息源头的AI造假技术管控入手。AI的生成依赖于大量的数据与算法运行,所以在这方面,设计者应该秉持公平道德观,规避自身的主观偏见。比如:根据《互联网信息服务算法推荐管理规定》。算法推荐服务提供对象应该定期审查评估算法各环节,并在AI大模型投入使用前,应该进行严格的法律审查,其中需涵盖原理、数据、训练过程等。并且建立相应的验证机制,对数据的真伪验证标准和过程进行改良,以保证数据标注的真实,从而约束AI编造的随意性。同时在这基础上还应设立相应的反馈渠道,开发者可以为用户搭建相应的反馈通道,鼓励用户在遭遇相应情况时进行反馈,以便于及时纠错调整。此外,企业可在用户使用大模型之时强化身份验证,比如可开启双因素身份验证以及生物特征识别和身份证实名验证等,保证访问的合法性。但,依据《个人信息保护法》《数据安全法》,企业尤其是大型互联网平台如OpenAI,有法定义务与社会责任健全个人数据保护体系,严控数据收集、存储与使用,设监督机构核查合规,避免泄露用户数据信息问题出现。另一方面,相关企业可以在产品中内置识别标识或溯源代码,以便在虚假信息出现时,能够迅速追溯到技术源头,精准打击造假行为。其次,生成式AI更需要多方协同治理,比如《中华人民共和国人工智能法(学者建议稿)》指出:为建立协同治理体制指引方向,多方参与可提升算法、数据与信息管理效能,应构建以政府主导、各方辅助的共治机制。在这过程中,政府可以完善相关法律法规政策,明确AI生成的运行规范,在防虚假身份信息涉及的数据与隐私保护方面,规定敏感数据访问需明示同意、设定安全标准;设立独立监管机构,监管AI开发、部署、运行及数据使用合规,处理侵权投诉;搭建信息共享平台,促部门协作,提升虚假身份信息核查效率。当然不容忽视的还是对末端受众防护意识的提升引导。公众作为信息的接收终端,是虚假信息传播链的最后一环,也是受害者。所以相关职能部门应通过开展大规模的虚假信息辨别宣传活动,利用电视、网络、公交地铁等多种媒介普及识别AI虚假信息的知识与技巧,如如何识别AI换脸视频的破绽、核实信息来源可靠性等,培养全社会共同抵制虚假信息的良好氛围。
三、AI传媒责任拼图的“精准定位”
在AI赋能的传播浪潮中,责任主体的界定无疑是一场精细的拼图挑战,开发者、使用者、平台等多方力量恰似拼图里不可或缺的碎片,它们相互交织、彼此影响,共同勾勒出AI传播的责任全景,任何一块的缺失或错位,都可能让这幅图景陷入混沌。
首先聚焦于开发者,他们是负责设计和开发AI大模型的专业技术人员,其技术决策和专业知识对最终生成的内容有重大的影响,所以开发者应确保AI系统的安全性和可靠性,避免潜在的技术漏洞与风险,在生成内容的过程中,保证算法的公正性和透明度,防止出现偏见和歧视。一旦算法存在出现问题,致使生成的视频出现侵权素材拼接、恶意篡改他人作品等问题,依据《著作权法》、《侵权责任法》等相关法规,开发者必然要承担修复漏洞、赔偿损失等法律责任。同时,开发者在数据采集阶段要有清晰的授权链条,对数据的来源、用途详细登记在册,以便随时接受监管审查,并严格遵守《数据安全法》、《个人信息保护法》等法规红线,对可能出现的侵权行为负责。此外,就使用者而言,其同时担任AI生成内容的创作者和传播者,但使用者在使用AI生成之时,不得将其用于非法或不道德的目的。例如,不能利用AI生成虚假信息或进行恶意攻击,谨慎核验AI产出内容,确保不侵犯他人的权益,并杜绝虚假信息混入传播渠道。对于故意进行恶性制作并传播的,应承担法律追责的相应后果。同时使用者还应具备一定的技术素养,了解AI的局限性和潜在风险,以便在使用过程中做出明智的决策。另一方面便是平台,平台无疑是AI生成内容的汇聚地与分散中枢,也是遏制虚假信息等传播的重要环节之一,所以平台应依据《互联网信息服务管理办法》,建立健全的审核机制,组建专业的内容审核团队,对上传的内容进行严格审查,防止不良内容的传播,一旦发现侵权、虚假、低俗等不良AI内容,平台必须在第一时间启动删除、封禁等处置流程,以维护良好的网络环境。若存在放纵或监管不到位等情况,导致侵权、虚假、低俗等不良AI内容肆意传播的,当受到相关执法部门处罚及调查。
在AI技术飞速发展的当下,我们对于AI内容的管理不但需要更多的法律法规支持,还需要各社会主题的协同参与形成全面有效的治理体系,将《民法典》等法律法规中适用的规制衍生成适用于AI的模式,灵活调整策略,确保社会公告利益的同时,也能让AI的发展为社会带来知识的启迪、信息的畅达,塑造一个多彩的传媒新纪元。
(作者汪杨舜,贵州民族大学传媒学院研究生;刘毅,贵州民族大学传媒学院高级记者)
贵州省互联网出版业务许可证:黔新闻出网版准字第046号黔ICP备05003182号-1 Copyright @ 2003-2023 DDCPC.COM 贵州法治网 Inc. All rights reserved 贵州日报当代融媒体集团主管主办 技术支持:
锦华科技