生成式人工智能虚假信息治理的新挑战及应对策略——基于敏捷治理的视角.pdf
2024年第4期治理研究No.4,2024
总第218期GovernanceStudiesGeneralNo.218
生成式人工智能虚假信息治理的
新挑战及应对策略
———基于敏捷治理的视角
□何宇华李霞
摘要:生成式人工智能的基础数据来源复杂,数据的真实性与合法性存在极大
不确定性,由此出现的虚假信息在技术逻辑上具有必然性和无限复制性;在传播规
律上具有瞬时性和隐蔽性;在危害后果上具有复杂性和不可控性。现有多中心协
同论、二元治理结构论和层级治理论分别从不同的视角提出治理策略,但过于关注
协同合作本身却忽视了治理主体的协同能力和响应效率;过度依赖政府与市场的
互补却遮蔽了二者面临新技术时容易懈怠的共性;盲目信任分层治理极易陷入技
治主义的困境。对此,应转向敏捷治理下以政府主导强化多元主体间的协同效能、
提升治理结构的适应性、破除层级障碍的治理新思路。以虚假信息治理的法治化
和技术化为基本方向,保持制度的原则性要求和技术工具价值的协同,实施虚假信
息等级评估制度,构建治理主体高效协作机制、快捷响应机制和容错纠错机制,搭
建生成式人工智能虚假信息敏捷治理新模式的基本框架。
关键词:生成式人工智能;虚假信息;敏捷治理
--
中图分类号:D920.0文献标志码:A文章编号:10079092(2024)04
-
0142015
--
收稿日期
作者简介:何宇华,浙江警察学院讲师;李霞,中国社会科学院法学研究所宪法与行政法研究室主任、研究员。
基金项目:2024年度浙江省哲学社会科学规划课题“公共安全数字化治理的风险识别与法律规制研究”(编号:
24NDJC164YB);浙江省教育科学规划2022年度一般规划课题(高校)“新文科背景下公安网络数据法治人
-
才培养的实践与探索研究”(编号:2022SCG320);中国社会科学院上海市人民政府上海研究院交办项目
2023jb023)。
“长三角地区一体化行政执法协作机制研究”(编号:
142
治理研究2024年第4期
一、问题的提出
近日,OpenAI公司发布的文生视频大模型Sora极大地提升了文本与视频之间的转
①-
换效能,Meta的VJEPA、谷歌Genie等产品亦在推测生成环境中积极探索生成式人工
智能的多场景运用。而此前,ChatGPT也凭借强大的信息整合能力、自然语言处理能力
②
和多模态交互能力,以前所未有的“人机互动”模式引发广泛关注。
然而,无论是文生视频大模型Sora还是人机对话的ChatGPT,都加剧了生成和传播
③
虚假信息的风险。首先,在技术逻辑上,生成式人工智能虚假信息具有必然性和无限复
制性。ChatGPT通过深度自主学习、人类强化反馈和Transformer算法运作,被不断解码
--
至完成最终运算,但“解码运算调适”的技术机理本身略过了信息的真实性与可靠性,
④
所以极易“主动”生成或“被动”训练出虚假信息,并被无差别地保存、复制和利用。其
次