通版阅读请点击:
展开通版
收缩通版
当前版:06版
发布日期:
AI生成内容的著作权困境与刑事保护边界
  ■向鹏 马玲敏
  近年来,以ChatGPT、Midjourney为代表的生成式人工智能(AIGC)技术实现了爆发式应用与跨越式发展。这些模型能够依据用户简单的指令,自动生成涵盖文本、图像及代码多元化的模态内容。导致AI技术的猛速发展与传统法律体系的稳定性之间产生了剧烈的张力。AI生成的内容,未经许可被第三方大规模复制、传播并且用于商业牟利时将严重损害原创者的权益和市场秩序,引发著作权归属、侵权认定等系列问题。
  我们应当如何界定并保护这些内容的合法权益?这一问题直接关系到著作权法对“独创性”的判断标准以及权利主体如何界定,更主要的是,当此类侵权行为达到严重危害社会的程度的时候,现行刑法能否有效介入,界限模糊不清。如若这类问题没有得到合理解决,一方面将直接导致原创者利益受损,另一方面也会抑制生成式人工智能技术的可持续发展和整个科技应用生态的繁荣。
  因此,需从法理与实践层面去探讨AI生成内容的刑事保护边界,分析其刑法介入的必要性与限度问题,厘清AIGC著作权困境与刑事保护边界,对完善知识产权法律体系、促进AI产业健康发展具有理论与实践双重价值。
  AI生成内容的著作权现实困境
  AIGC从1950年的萌芽阶段到如今不断迭代的深度学习模式,取得了诸多突破性的进展。吴汉东教授曾对人工智能创作的过程总结为三个阶段,其中包括数据输入,机器学习和结果输出。在机器学习阶段,AI生成内容是否构成著作权法意义上的作品,其作者是AI开发者、使用者还是AI本身界定尚无定论,由此引发一连串权利归属与责任认定的问题。
  若AI训练时所使用的海量数据未经授权,数据训练者、数据的收集者、数据开发者之间的权利划分问题混乱。用户对AI生成内容通过微调和任意修改等手段进行伪装修饰,传统“接触+实质性相似”的侵权认定标准难以对“直接复制向算法生成”演进的侵权行为直接使用。各大平台通过爬虫、清洗技术批量生成AI内容,其侵权行为呈现批量化、模板化的特点。导致侵权源头难以追溯。
  《著作权法》第24条规定了合理使用的情形,允许在特定情况下使用作品而无需获得著作权人的许可。但并未明确涵盖AIGC场景下的训练使用、生成内容商用等情形,其权利边界缺乏法律依据,致使AI法律的适用出现冲突。在规范层面,《著作权法》第10条已将数字化纳入复制权范围,为认定AI生成内容其过程构成侵权行为提供了可解释的依据。事实上,司法实践中对合理使用的裁量主要依赖于行为目的的审查,以及对使用内容数量与实质性的综合性考虑。AI生成内容具有广泛的传播能力,其影响范围往往覆盖全国甚至跨境,其跨境管辖纠纷极其复杂,传统“侵权结果发生地”管辖原则在分布式网络环境下难以适应。共同塑造了此类纠纷中法律适用的复杂性与不确定性。以上因素相互交织,共同塑造了AIGC相关著作权纠纷中法律适用的高度复杂性。
  AI生成内容的刑事保护边界
  随着时代的进步,AIGC将会在人工智能领域进一步发展,会出现大规模AIGC侵权行为,其所带来的危害,远不止于对原创者直接的经济利益剥夺,更在于对其创作者的积极性与整个行业生态的持续性冲击。
  如AIGC在未经授权的情况下,对海量美术或音乐作品进行训练后,便能高效地短时间产出在风格或编曲甚至情感表达上高度近似的代偿性内容。这些低成本、批量的生成物涌入经济市场,将直接冲淡原创音乐与原创作品的稀缺性与价值,抢夺本属于艺术家的演出、授权与流量机会。其严重后果是双向的,它不仅粗暴切断了创作者通过作品获得回报的经济正循环,削弱其创作热情;还会模糊原创与仿制的边界,导致艺术创作中珍贵的人格色彩与独特性被消解,最终会降低整个音乐产业的创新活力,使文化多样性面临被同化的威胁。
  在目前的行政领域中,对AIGC的侵权行为仅仅采取民事赔偿、行政罚款等手段难以抑制其规模化侵权。需要通过刑罚裁量加强威慑力,对于故意使用未经授权,即盗版数据集训AI并谋取巨额利益的行为,追究其刑事责任。刑法保障的前提应当区分罪与非罪的界限,以主观故意及造成实际上的损害为核心,区分合法合理使用与刑事侵权。为平衡科技创新与版权保护问题,在对AIGC侵权行为刑事保护边界探析时,应当与民事、行政责任进行衔接。在启动刑事程序时应持高度谨慎态度,坚守情节严重这一核心标准。刑事制裁应精准聚焦于具有严重社会危害性的恶性侵权行为,而非普通的、偶然的技术利用。在司法实践中,应综合考量行为人的主观恶性程度、侵权规模大小、持续时间长度以及非法获利数额等因素。刑法谦抑性原则强调刑法是最后的保障法,更是社会治理的最后一道防线,这一原则意味着:当某一侵权行为尚可通过民事赔偿、行政制裁等前置性法律手段有效规整时,刑法便不应率先介入。
  当前,AIGC生成内容作品的定性、权利的归属、合理使用边界等核心问题在民事领域仍存在巨大争议与界限不清。在背景下,刑法过早地、过度地对其进行强势干预,不仅逾越了刑法作为保障法的地位,也会阻碍技术创新与科技发展的持续进步。因此,刑法的发动必须严守“最后手段”的底线,仅为那些主观恶性巨大、客观危害严重,且其他法律手段已无法有效制裁的极端侵权行为,预留空间。在刑事保护边界探析中应秉持民事前置、刑事兜底的阶级原则。
  在涉及AIGC的刑事案件中,不应直接套用传统侵权案件的认定逻辑,而应确立先民事、后刑事的审查思路。具体而言,法院在认定刑事责任前,必须首先对涉案AI生成内容是否构成《著作权法》意义上的作品这一前置性问题,进行独立且严谨的实质性判断。这包括评估其是否蕴含了训练者或开发者的独创性智力投入,而非仅是算法自动生成的随机结果。鉴于刑事制裁的严厉性,当作品的版权这一基础权利本身在民事领域尚存巨大争议时,刑事程序的启动更应保持极度谦抑。
  为此,必须设定更为严格的证明责任。要求控方不仅需要证明被告方存在侵权行为及主观故意,更需要明确地证明涉案AI生成内容本身构成受法律保护的、具有明确权利主体的作品,并清晰界定其权利归属。若控方无法跨越这一民事权属判定的初步门槛,或相关内容仍处于法律属性的“模糊地带”,则刑事指控便因根基不稳而不能成立。防止其利用刑法的威慑力,去干预本应由民事法律调整的、尚未定性的技术创新领域。在明确权属基础后,刑法的介入应严格遵循危害性权衡原则,确保打击重点始终指向那些对著作权人利益及市场秩序和公共利益造成实质性严重损害的行为。具体而言:刑事司法的重点应聚焦于以下两类情形,一是利用AIGC技术实施大规模盗版与产业性侵权。远超个人侵权所带来的危害,严重冲击市场秩序,是刑事司法首要打击的目标。二是超越了著作权的争议,生成了本身就是违法性的内容。即AI生成内容作为违法作品、欺诈性信息或者其他危害社会秩序和危害国家安全性的内容时,其行为性质已经发生了质变。此时,不应该再拘泥于著作权法的框架,而应优先考虑刑法中更具有针对性,处罚更加严厉的其他罪名进行规制,罚当其罪。
  面对AIGC带来的法律挑战,需要分当前与长远两步走:当前要充分解释和用足现有法律,解决紧迫问题;长远则要谋划新的立法,构建更完善的规则体系。运用解释论在不突破现有的成文法框架范围内,通过灵活的司法技术和目的性解释,赋予传统法律概念以新的时代内涵。明确对作品的认定:法院可通过对《著作权法》中独特性要件的内涵进行扩张解释,将那些体现了使用者实质性智力投入的具有高度创新性和复杂性的AI生成内容,认定为受保护的作品。明确对作者的界定,在权利归属上,可以通过司法解释借鉴法人作品或雇佣作品的制度逻辑将符合特定条件的AI使用者界定为著作权人。从而在现行法下为权利归属提供暂时的确定性。此方法能够在科技快速发展的情况下,有效应对现行法存在的局限性。
  总之,在数字浪潮的席卷下,生成式人工智能在独创性判断、权利主体认定、侵权责任划分等方面对传统著作权法体系产生了重大冲击。也对现行法律规制提出了革新要求。在此背景下,刑事保护作为法律制裁的最后手段,必须秉持审慎原则,避免过度扩张或规制不足。我们应当构建层次化的责任追究机制:以民事救济与行政监管作为前置防线,仅将刑事规制聚焦于具有严重社会危害性的恶意侵权与规模化盗版行为。展望未来,亟需在司法实践中完善“实质性相似”等裁判标准,并在立法层面明确技术中性与有责行为的分野,从而在激励技术创新与保障创作者权益之间构建动态平衡,为人工智能时代的文化繁荣与产业健康发展奠定坚实的法治基础。
  (作者向鹏系贵州民族大学法学院教授;作者马玲敏系贵州民族大学法学院研究生)

贵州省互联网出版业务许可证:黔新闻出网版准字第046号黔ICP备05003182号-1 Copyright @ 2003-2023 DDCPC.COM 贵州法治网 Inc. All rights reserved
贵州日报当代融媒体集团主管主办 技术支持:锦华科技