Skip to main content
  1. 论文/

生成式人工智能大模型的新型风险与规制框架

·1729 words·4 mins
生成式人工智能 大模型 风险规制 透明度 人工智能法 数据安全 立法探索 欧盟经验 中国立法 技术挑战
Table of Contents

✏️ 刘金瑞

要点总结
#

生成式人工智能大模型技术的快速发展带来了新的风险挑战,包括生成有害内容、泄露敏感数据、生成错误信息、滥用实施违法活动、可能危害环境和经济、向下游传导风险等。这些风险不仅影响技术应用的安全性,还可能对社会、经济和政治产生深远影响。欧盟和我国都在积极探索相关立法,但现有立法尚不足以充分应对这些新型风险。本文结合欧盟立法经验和我国立法探索,提出了规制大模型风险的基本思路和制度框架。

本文提出了基于风险分类分级的规制框架,强调数据利用安全范式,确保大模型数据训练和部署应用的可控性和正当性。具体措施包括设立专门机构引导发展和评估风险、规范数据训练以避免数据泄露和不当输出、基于特定用途风险构建风险分级管控制度、确立贯穿大模型全生命周期的透明度制度、健全防止生成违法内容的上下游共治机制。通过这些措施,本文旨在为大模型时代的人工智能立法提供有益参考。

关键要点
#

论文重要性
#

生成式人工智能大模型的新型风险不仅影响技术应用的安全性,还可能对社会、经济和政治产生深远影响。随着大模型技术的快速发展,如何平衡人工智能发展与安全的关系,已成为全球共同面临的挑战。本文提出的规制框架不仅为当前立法提供了参考,还为未来研究指明了方向,具有重要的理论和实践意义。通过基于风险分类分级的合作共治策略,本文为大模型时代的人工智能安全发展提供了可行的解决方案。


深度解读
#

大模型风险
#

生成式人工智能大模型技术的发展带来了显著的风险挑战,主要包括有害内容生成敏感数据泄露错误信息传播滥用实施违法活动以及环境和社会经济风险。这些风险源于大模型的数据训练和部署应用。数据训练阶段,大模型通过大规模无标注数据进行学习,可能导致生成的内容带有偏见、歧视甚至违法信息。部署应用阶段,大模型的强大生成能力可能被滥用于制造虚假信息或实施网络攻击,甚至可能对环境造成负面影响。应对这些风险,需要从技术、法律和社会治理等多个层面入手,确保大模型的安全可控性。

欧盟立法
#

欧盟在人工智能立法方面走在前列,特别是在大模型风险规制方面提出了基础模型和生成式基础模型提供者的专门义务。欧盟的《人工智能法》提案要求基础模型提供者承担风险管理数据治理技术可靠性等义务,并特别强调生成式基础模型的透明度防止生成非法内容的义务。然而,欧盟的立法方案存在一定问题,将大模型直接归类为高风险系统,忽视了其通用性和实际用途的多样性,导致监管成本过高且难以实施。欧盟的经验为我国大模型风险规制提供了重要参考,但也提醒我们需要根据大模型的技术特征和发展需求,制定更为灵活和有效的规制框架。

数据安全
#

大模型的风险根源在于其数据训练和部署应用,因此确保数据安全是规制大模型风险的关键。数据训练阶段,必须确保训练数据的可控性和正当性,避免使用包含偏见、歧视或敏感信息的数据。部署应用阶段,则需要确保大模型的生成内容符合法律法规和主流价值观,防止其被滥用于违法活动。数据利用安全范式要求在大模型的整个生命周期中,确保数据的合法使用和生成内容的可控性。未来的立法应进一步明确数据训练和部署应用的具体要求,确保大模型在释放数据价值的同时,不会对社会安全和个人权益造成威胁。

风险分级
#

大模型的风险规制应基于风险分类分级的原则,根据其实际用途的风险程度采取不同的监管措施。不可接受风险的用途应严格禁止,如涉及国家安全、公共安全等领域的滥用行为。高风险和中风险的用途则需要设定相应的风险管控义务,确保大模型在这些领域的应用不会对社会造成重大损害。低风险的用途则可以采取较为宽松的监管方式,鼓励创新和发展。风险分级规制的核心在于平衡安全与发展的关系,避免过度监管阻碍技术进步,同时确保大模型的应用不会对社会造成不可控的风险。

合作共治
#

大模型的风险规制需要上下游参与者的合作共治大模型提供者负责确保数据训练的可控性和正当性,大模型部署者则负责确保模型在具体应用中的安全性和合法性。使用者作为生成内容的最终决定者,也应承担相应的责任。合作共治的关键在于建立有效的信息共享机制风险沟通渠道,确保各方能够及时识别和应对大模型的风险。未来的立法应进一步明确各方的责任和义务,确保大模型的风险能够在整个价值链中得到有效管控。

完整论文
#