网站首页
数字报首页
版面导航
第01版:头版
第02版:法治黔线
第03版:理论研究
第04版:消防
标题导航
权利不应“空转”:帮信、掩隐犯罪案件被害人民事权益维护与诉讼监督路径探析
“法治+科技+特色产业”协同赋能贵州高校知识产权法学拔尖创新人才培养
技术狂飙下的AI内容治理困境与规范建构
版面概览
通版阅读请点击:
展开通版
收缩通版
当前版:03版
首版
上一版
下一版
末版
发布日期:
文章标题
文章内容
文章作者
上一篇
下一篇
字体:
放大
缩小
默认
技术狂飙下的AI内容治理困境与规范建构
■刘畅 伍顺比
2026年4月14日,国内头部AI模型社区Liblib(哩布哩布)就个别复杂提示词绕过审核,生成不合规内容而公开发表致歉声明,再度将AI平台的治理短板与潜在风险推向公众视野。当前,人工智能技术加速迭代普及,正深刻重塑社会内容生产与传播范式。短视频算法分发、智能新闻摘要、数字人直播、AI自动写作、平台内容生成等应用场景不断拓展,深度融入经济社会发展各领域。
在此过程中,网络平台角色也从传统意义上的“信息中介”,逐步转向内容“生产者”与“分发者”,平台权力持续扩张,具备了依托人工智能批量生成图片、音频、视频等多元内容的能力。党的二十届四中全会强调,要健全国家安全体系,加强重点领域国家安全能力建设,提高公共安全治理水平,完善社会治理体系。反观现实,平台生成内容乱象仍时有发生,虚假信息传播、版权侵权频发、价值导向偏差、个人隐私泄露、算法歧视凸显等问题交织叠加,使得AI平台伦理失范、治理失序问题备受社会关注,也对国家安全、社会稳定与公共利益构成现实挑战。
生成式AI的快速发展也带来了诸多不容忽视的问题。首先,虚假信息传播速度加快。生成式AI可以产出大量文字、图片、视频等,部分网站为了吸引流量、活跃度而降低审查要求,造成“伪新闻”“标题党”“深度伪造视频”等信息迅速传播。生成模型通过深度学习、统计拟合,生成出具有高度可读且内容看似真实的内容,普通用户不易分辨,易造成误导甚至扰乱社会秩序。其次,低质量内容泛滥。部分网站使用文字生成工具大量发布文章、视频脚本、商品评论以及问答等内容,不管质量只管数量,以达到增加浏览量等目的。而这些批量生产的内容毫无真实性可言,不但影响读者体验,而且挤压原创作者发展空间。再者,版权问题日益突出。AI模型生成的内容是基于大量的文学作品、新闻作品、图片素材、音乐作品等受版权保护的内容进行拼接而成的。部分平台未经原作者授权就通过大语言模型生成作品,这使得“学习借鉴”与“侵权复制”之间的法律界限被模糊。创作者数年的努力,在极短的时间内被AI所代替,对知识产权构成严重的威胁。与此同时,价值取向发生偏差。算法平台以用户停留时长、点击量、转发量作为主要标准,平台更愿意发布情绪化、猎奇类的信息。AI算法的驱动下生成的内容会放大焦虑、对立和争端,以获取更大的关注。这种“重流量而轻价值”的观念很容易消解公众理性,降低人们之间的互信度。最后,个人隐私以及数据安全问题突出。AI算法平台进行深度学习需要收集大量用户的个人信息,例如用户的浏览历史、聊天内容、喜好、位置信息等,如果平台数据缺乏监管,则容易出现个人信息被泄露、被跟踪的情况,使用者在不知情的情况下被操控。
平台生成内容乱象,并非技术问题,而是多种因素叠加的结果。如今商业利益驱动。由于互联网公司的收入来源一般以广告收入、用户时长以及交易转化率为主,使用AI可以大大降低成本,提升工作效率。因此,平台会快速发展技术,而容易忽略其中存在的道德问题,在“收益”是唯一目标的情况下,社会道德底线就会被践踏。其次,技术创新速度超出立法进程。生成式AI迭代更新迅速,相对落后的法律规范、行业准则、审查机制跟不上新模型、新产品的推出。许多问题发生之后才引起关注,造成治理滞后于技术迭代的局面。在此基础上,算法黑箱问题严重。平台算法的逻辑、运行机制、数据来源并不透明,外界对于AI为何生成某类内容、如何推送并不了解。所以,当用户出现法律问题时,责任认定也会变得困难。最后,用户媒介素养参差不齐。AI生成模型极易生产出貌似可信但不忠于事实的虚假内容。当用户媒介素养不高时,会被自然语言的“幻觉”所迷惑,甚至会主动传播未经核实的虚假内容,客观上会放大平台问题的社会影响。
人工智能平台所面临的问题是技术服务于人,还是操控人。真实性问题成为关键。平台是否需要对所生成的内容的真实性负责。在社会的信息流通中,真实性是公众进行讨论的前提条件。如果平台听之任之让虚假的内容传播,则会侵害到公众的知情权。其次是公平性问题。AI系统是否具备平等的思想。在模型训练时,如果数据本身就有偏见,则大模型生成的结果是否在求职、金融、教育、内容推荐等各个方面造成偏见,加剧社会不公平。同样重要的还有自主性问题。平台算法是否能够向用户推送大量信息。如果算法只是根据用户的画像,只推送给用户感兴趣的信息,在表面上是“个性化服务”,实际上是对用户注意力的控制。其次是责任问题。当AI生产出侵权的信息或者诈骗信息时应该由谁负责,是开发人员、平台运营商还是用户,如果责任主体不明确,受害者很难维护自己的权益。最后是人文问题。当所有人都用AI提高工作效率时,人的创造性以及主体性该如何保障?如果平台太过依靠AI生产内容,可能会导致人类的工作被边缘化,也会对人类的文化生态造成破坏。
对于平台生成内容乱象,需要政府、企业和公众等共同参与治理。首先要健全相关法律制度。要规定AI生成内容标注要求、数据使用范围、版权归属以及侵权救济方式等,防范深度伪造、虚假宣传、操纵舆论等。其次要压实平台责任。平台要有责任意识,不能只产出内容。平台需要建立健全内容审核制度、预警制度、用户反馈机制,对高危内容先通过算法进行筛选,再进行人工复审。对违法账号及时处理,对算法推荐不定期开展审查。同时增加算法透明度。各个平台适当公布推荐规则、数据类型、反馈方式等内容,让公众了解信息的来源,可以使用户实行监督权,从而提升平台公信力。此外要保护原创及版权。制定科学的数据授权以及利益分成制度,避免AI免费占有创作者作品,技术发展不能以牺牲原创者的利益为代价。最后需要提高公众数字素养。各种机构组织应该帮助公众提升识别AI内容的能力,提升保护个人信息、理性使用AI生成内容平台的意识。
在数字化时代下,人工智能生成内容平台引发问题是不可避免的,也是人工智能治理过程中的一大难题。人工智能是把双刃剑,如何利用、运行和管控才是关键。如果缺乏相应的法律法规和约束,则会成为安全隐患。未来的世界应当使用技术创造真实和理性,这才是社会发展的方向。
(作者刘畅系贵州民族大学传媒学院2025级硕士研究生;作者伍顺比系贵州传媒职业学院党委副书记)
贵州省互联网出版业务许可证:黔新闻出网版准字第046号黔ICP备05003182号-1 Copyright @ 2003-2023 DDCPC.COM 贵州法治网 Inc. All rights reserved 贵州日报当代融媒体集团主管主办 技术支持:
锦华科技