生成式人工智能(Generative AI,以下简称“AIGC”)技术正在高速发展,并通过各种软件、终端设备走进我们的生活和工作中,然而AIGC在为社会带来便利的同时也带来了相应的法律风险。国家网信办等七部门发布了《生成式人工智能服务管理暂行办法》(以下称“办法”),对生成式人工智能进行专项监管,于2023年8月15日正式施行。在数据安全上,生成式人工智能提供者和使用者分别有哪些需要注意的风险、该采取哪些保护措施、又有怎样的法律责任?
网易易盾安全专家将依据《办法》对这几方面进行分析解读。
01.适用范围
根据管理办法第2条的规定:
利用生成式人工智能技术向中华人民共和国境内公众提供生成文本、图片、音频、视频等内容的服务,适用本办法。
这意味着境外AIGC服务提供者(无论是模型层还是应用层),无论是直接向境内提供相关服务,还是通过API接口或其他形式“封装”后提供“间接”服务,都将受限于管理办法的相关规定。
此次管理办法引入了一项“安全港”例外,即“行业组织、企业、教育和科研机构、公共文化机构、有关专业机构等研发、应用生成式人工智能技术,未向境内公众提供生成式人工智能服务的,不适用本办法的规定”。因此,如果只是内部研发或者使用相关技术,不对外提供服务,则只要获得技术提供方的授权以及遵守网络安全、数据和个人信息保护等相关法律法规的,是符合此次《办法》的规定。这缓解了许多企业接入生成式人工智能服务用于改善工作效率等内部应用的合规顾虑,体现了《办法》审慎包容、鼓励创新的监管思路。
02.分类分级监管规则
根据管理办法第3条的规定:
对生成式人工智能服务实行包容审慎和分类分级监管。
第十六条进一步规定:
国家有关主管部门针对生成式人工智能技术特点及其在有关行业和领域的服务应用,完善与创新发展相适应的科学监管方式,制定相应的分类分级监管规则或者指引。
虽然管理办法并没有进一步展开分级监管的具体规则,但预计相关内容会在即将出台的《人工智能法》中做出规定。由于生成式人工智能具有通用性,“包容审慎和分级分类”的监管思路有助于《办法》作为生成式人工智能领域的“基本法”保留一定灵活性,各监管部门、行业主管部门、标准化组织亦可以在此基础上制定更加细化的生成式人工智能分级分类规则,并针对特定行业、特定应用或某些高风险的生成式人工智能服务制定更为严格的规范。
此外,《办法》针对生成式人工智能服务一些主要的应用场景,规定利用生成式人工智能服务从事新闻出版、影视制作、文艺创作等活动需遵守相关领域的监管规定,与现有制度对接。
03.算法及内容安全的规定
根据管理办法第4条的规定:
提供和使用生成式人工智能服务,应当遵守法律、行政法规,尊重社会公德和伦理道德。
为了遵守法律法规和体现社会主义核心价值观,对于实时交互内容审核和利用AI生成内容,需要加强敏感内容审核,例如涉政、涉黄、涉暴等内容,以确保信息的安全和合规性。然而,特殊的prompt指令可能会绕过AI自身的安全机制,增加审核的难度和复杂度。
为了解决这个问题,网易易盾针对AIGC+UGC场景下的机器审核能力,可根据业务场景配置审核的松紧程度,选择适当的审核策略来满足不同场景的合规要求。
如在语聊对话场景中,存在真实用户和智能机器人两种角色,这要求机审能够快速识别不良信息,确保人机聊天的实时性。AI机审技术可根据业务场景不同,在UGC内容和AIGC生成内容配置不同的松紧度审核策略,兼顾用户使用体验和内容安全合规性。
在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取有效措施防止产生民族、信仰、国别、地域、性别、年龄、职业、健康等歧视。
《办法》特别指出具有各类歧视的内容,要采取有效防止措施。网易易盾安全专家分析,大模型在训练、测试和生产过程中可能会遇到歧视内容数据的风险,这些风险是由于训练数据中存在偏差或缺失,导致模型在处理不同群体的个体数据时出现不公平或歧视性的结果。为了避免大型模型在生产中出现歧视风险,需要在训练数据的收集和处理过程中考虑数据的平衡性和代表性,确保训练数据充分涵盖不同群体的数据分布和特征,避免对某些群体进行歧视或忽略。
此外,还需要采用一系列的模型评估和监控措施,及时发现和纠正模型中存在的歧视问题。这些措施包括但不限于公平性指标的设计、敏感性分析、模型的可解释性、数据隐私保护等。这样可以帮助确保大模型生成的结果是公正和合理的,避免歧视风险对特定群体造成负面影响。
04.服务提供者的义务
在征求意见稿中,AIGC服务提供者被要求承担一项极其高的义务,即“保证数据的真实性、准确性、客观性和多样性”。考虑到AIGC技术开发的实际情况,管理办法做出了合理化的修改,即“采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性”。管理办法亦不再强制要求服务提供者对用户实行实名制。此外,征求意见稿曾要求服务提供者有义务在三个月内通过模型优化训练等方式防止再次生成不当内容,但考虑到AIGC产生不当内容的天然潜在持续性和不确定性,管理办法删除了该义务,仅要求服务提供者及时优化模型并向主管部门报告。最后,在处罚部分,删除了“终止提供服务并处一万元以上十万元以下罚款”的规定。
不过,管理办法亦增加了部分新的义务,比如服务提供者应与用户签订服务协议明确双方权利义务,对用户违法活动的监督增加了“警示”、“限制功能”以及“保存记录”和“报告”的义务等。但该等新增义务均较为合理,不会显著增加服务提供者的额外负担。
05.安全评估和算法备案
征求意见稿曾无差别地要求AIGC服务提供者在对外提供服务前,按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案手续。管理办法做出了显著的修改,明确只有“提供具有舆论属性或者社会动员能力的生成式人工智能服务”的服务提供者,才需开展安全评估和算法备案。
虽然缩小了适用范围,但管理办法并没有进一步明确“具有舆论属性或者社会动员能力的生成式人工智能服务”的认定标准。从合理评估的角度来判断,结合《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》,新闻、社交、直播、教育、写作、聊天等AIGC相关技术被认定的可能性比较高。
06.境外服务提供者
包括OpenAI在内的AIGC行业的境外厂商,无疑处于技术领先地位,境外投资者在该领域也更为活跃。管理办法首次原则性明确,“对来源于中华人民共和国境外向境内提供生成式人工智能服务不符合法律、行政法规和本办法规定的,国家网信部门应当通知有关机构采取技术措施和其他必要措施予以处置。”结合上述第一条的适用范围相关规定,对于“嵌套”、“封装”境外AIGC技术的境内服务提供者,将面临底层境外技术支持随时中断的风险。
此外,管理办法首次指出,“外商投资生成式人工智能服务,应当符合外商投资相关法律、行政法规的规定”。考虑到目前AIGC相关外商投资的规定尚不明确,建议持续关注相关立法动态,且预计根据未来出台的分类分级监管规则,会适用不同的外商投资限制规定。
07.利好创新的政策措施
《办法》针对生成式人工智能研发、应用提出了一系列政策鼓励措施,包括:
l 鼓励生成式人工智能技术在各行业、各领域的创新应用,生成积极健康、向上向善的优质内容,探索优化应用场景,构建应用生态体系。
l 支持行业组织、企业、教育和科研机构、公共文化机构、有关专业机构等在生成式人工智能技术创新、数据资源建设、转化应用、风险防范等方面开展协作。
l 鼓励生成式人工智能算法、框架、芯片及配套软件平台等基础技术的自主创新,平等互利开展国际交流与合作,参与生成式人工智能相关国际规则制定。
l 推动生成式人工智能基础设施和公共训练数据资源平台建设。推动公共数据分类分级有序开放,扩展高质量的公共训练数据资源。促进算力资源协同共享,提升算力资源利用效能(第5条、第6条)。
网易易盾安全专家表示,随着《生成式人工智能服务管理暂行办法》的落实,监管体系逐渐完善,生成式人工智能行业即将迎来应用的爆发,也进一步鼓励生成式人工智能技术在各行业、各领域的创新应用。但是,企业在训练数据合规性、生成内容安全准确和可靠性、生成式人工智能服务的透明度等方面的要求,需要企业结合技术与法律力量提出可行性的解决方案,符合监管机构的安全规范要求,共同推进生成式人工智能应用生态发展。
(来源:News快报)