首页 >  WEB3专题 >  正文
首份监管文件来了!AIGC管理办法征求意见剑指何方?释放哪些信号?
发布日期:2023-04-13

首份监管文件来了!AIGC管理办法征求意见剑指何方?释放哪些信号?来源:澎湃新闻

记者 范佳来 杨阳 孙燕

首份监管文件来了!AIGC管理办法征求意见剑指何方?释放哪些信号?

图片来源:由无界 AI工具生成

新兴产业的立法速度正不断加快,在多国政府注意到ChatGPT风险时,生成式人工智能(AIGC)产业也在国内迎来首份监管文件。

4月11日,国家互联网信息办公室就《生成式人工智能服务管理办法(征求意见稿)》(以下简称《征求意见稿》)公开征求意见,《征求意见稿》共21条,对生成式人工智能产业给出较为详尽的规定,其中包括定义、准入资格、责任义务和处罚措施等。

“国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源。”在《征求意见稿》中,明确了对生成式人工智能产业的支持和鼓励态度。

目前,包括百度、腾讯、阿里、华为、京东、360等多家国内科技巨头均已宣布在生成式AI产业有相应布局。同时,包括美国、意大利、德国在内的多个国家已经注意到ChatGPT所带来的风险,正在考虑出台相应监管措施。

多位接受澎湃新闻记者采访的学者表示,征求意见稿对于企业的数据治理水平、数据合规体系的建设提出了更高的要求。多家券商报告显示,《征求意见稿》有利于产业健康发展和规范应用。

首次对生成式人工智能进行系统监管

“这是国家首次专门针对生成式人工智能进行系统监管。”对于《征求意见稿》出台,西南政法大学数字法治政府研究院副教授郑志峰告诉记者。

在他看来,《征求意见稿》中有两处尤为值得关注:其一是延续全过程、全要素的监管理念,既关注生成式人工智能的研发,也关注生成式人工智能的利用,确立了安全评估、算法备案、预训练数据合规、人工标注合规、使用监管等全流程的监管归责,涵盖算法、个人信息保护、数据安全、计算资源等各种基础要素。

二是强化提供者的责任,从风险控制的角度入手,要求生成式人工智能产品或者服务的提供者肩负一系列职责,遵守法律法规,尊重社会公德、公序良俗,对于算法、模型、个人信息、数据、内容、用户都要负担相应的责任,确保技术可控、技术向善。

记者观察到,《征求意见稿》中尤为强调对个人数据和信息的保护,多次提到信息安全的重要性。其中要求:提供生成式人工智能必须尊重他人合法利益,防止伤害他人身心健康,损害肖像权、名誉权和个人隐私,侵犯知识产权。禁止非法获取、披露、利用个人信息和隐私、商业秘密。“意见稿代表了监管部门的监管方向,基本是延续安全与发展并重的监管思路,为我国生成式人工智能产业发展指明方向,划出一条安全线,让企业在研发、提供生成式人工智能产品或者服务时合规有据、有法可依。”郑志峰认为。

对此,中国社科院法学所研究员、科技与法研究中心主任杨延超表示,“《征求意见稿》对生成式人工智能产业发展是积极信号。现在大家担心的问题不是ChatGPT能力不够强,而是随之而来的安全隐患。《征求意见稿》用较为精简的条款确定了产业发展的基本方向,确保信息安全,保护中国经济。”

“《征求意见稿》突出的是从数据合规、数据治理的角度来实现监管的目标,对于各企业的数据治理水平、数据合规体系的建设提出了更高的要求。”北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴沈括告诉记者,这也意味着提高准入主体的数据运用能力水平,将会形成一定的数据层面的准入门槛。

奇安信相关安全专家告诉澎湃新闻记者,《征求意见稿》的发布以及全球范围内对于AIGC的监管力度加强,意味着数据安全和隐私保护已经成为AIGC发展的前提和关键。随着AIGC技术的日益成熟和普及,企业应该更加重视数据安全和隐私保护问题,在开展相关业务时积极寻求专业的网络安全技术和咨询服务的支持,确保业务的安全和可靠性。

或将带动数据安全产业需求

在郑志峰看来,人工智能技术对于数字中国建设至关重要,需要重点考虑两点:一是当前国内生成式人工智能行业的发展尚处于追赶阶段,监管要适当多考虑促进技术发展的目标;二是生成式人工智能具有通用型技术的特点,可以广泛赋能医疗、教育、娱乐、政务等,未来需从具体场景来细化监管。

据多家券商研报显示,《征求意见稿》将加速生成式人工智能产业的发展。

国联证券研报显示,《征求意见稿》是生成式人工智能领域的首份监管文件,其发布符合预期,是《网络安全法》等上位法在生成式人工智能领域的具体落实,有利于产业的健康发展和规范应用。

“网络安全、数据安全是保障生成式人工智能产业健康发展和规范应用的关键,产业链相关企业均将不同程度受益于生成式人工智能产业发展。”国联证券表示,《征求意见稿》提到,提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗;用于生成式人工智能产品的预训练、优化训练数据,应符合《网络安全法》等法律法规的要求;提供者在提供服务过程中,对用户的输入信息和使用记录承担保护义务。生成式人工智能产业的发展,或将带动网络安全、数据安全需求。

平安证券研报分析称,《征求意见稿》对生成内容、主体责任、数据源和数据处理等方面均做出了规定。在内容方面,要求不得危害国家和社会,传递虚假、造谣和有害信息;在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,不得出现歧视;尊重知识产权,保证生成内容的准确性;不得侵犯他人的合法权益。利用生成式人工智能产品提供服务的组织和个人,承担内容生产者责任,履行信息保护的义务。

平安证券表示,新技术发展和监管合规是相辅相成的关系。近年来,移动互联网、云计算、大数据、区块链等技术快速涌现,而且都实现了有序、蓬勃的发展,背后离不开监管在网络安全机制体制建设上的完善,以及产业政策引导,真正实现了“技术向善”。同时,监管政策也正在积极适应信息技术的革新。尤其AIGC面世以来,监管机构对数据处理主体、数据处理过程以及伴随的国家安全和信息安全的认识也在逐步清晰。

“我们预计,随着更多AIGC技术的应用落地,一些潜在的风险将更多的被认识和暴露,监管侧的监管措施也会更‘对症’,《征求意见稿》只是第一步。”

多国加强监管人工智能

此前据《华尔街日报》报道,拜登政府已经开始研究是否需要对ChatGPT等相关工具进行限制。美国商务部4月11日就相关的问责措施正式公开征求意见,包括具有潜在风险的新型人工智能模型在发布前是否应该进行核准认证程序。这被视作是迈出对人工智能领域实行潜在监管的第一步。

“我国在个人信息保护和数据立法领域与欧盟、美国并行,在算法治理和深度合成治理领域则成为了一定意义上的领跑者。”中国政法大学数据法治研究院教授张凌寒告诉澎湃新闻记者。

“在新兴领域立法速度加快,已经成为了世界各国的一个常态。不管是欧盟和美国,实际上都在这一周之内,提出了有关生成式人工智能的治理方案。”在她看来,掌握人工智能治理的话语权、规则制定权,抢先形成新的国家竞争优势,已经成为世界不同法域的努力目标。

“ChatGPT等生成式人工智能的爆发,是推动深度合成成为人工智能治理专门领域的有利契机。”张凌寒表示,《征求意见稿》的制度设计一方面延续了《互联网信息服务深度合成管理规定》关于标识、评估、备案等既有制度安排,另一方面就训练数据、人工标注等提出了新的合规要求,相比于《互联网信息服务深度合成管理规定》确实体现出监管逻辑更新和制度体系迭代的新趋势。

她认为,应促进以ChatGPT为代表的生成式人工智能健康发展,积极构建符合中国本土经济、社会、政治、价值观,能够促进国家人工智能技术产业长远合法发展的治理制度,才将有助于形成真正的制度竞争优势。

澎湃新闻记者梳理发现,多个国家已出台或正讨论对ChatGPT的监管措施。4月初,德国联邦数据保护专员乌尔里希·凯尔伯(Ulrich Kelber)表示,德国可能会追随意大利的脚步,因数据安全问题“封杀”ChatGPT。

当地时间3月31日,意大利个人数据保护局宣布,从即日起禁止使用ChatGPT,限制ChatGPT的开发公司OpenAI处理意大利用户信息,并开始立案调查。

据路透社报道,特斯拉首席执行官、推特“掌门”埃隆·马斯克与一众人工智能专家和行业高管在一封公开信中,呼吁暂停训练比OpenAI新推出的GPT-4模型更强大的人工智能系统至少6个月,理由是它们对社会和人类构成潜在风险。