没有人能料到,生成式人工智能(AIGC)一夜爆火,从ChatGPT到文心一言,再到GPT-4和各类生成式人工智能,它以强大的文字处理和人机交互功能迅速成为炙手可热的新一代人工智能产品。
生成式人工智能技术在带来深刻的生产力变革时,也为监管治理提出新挑战。如何促进其健康发展和规范应用?4月11日,中国国家互联网信息办公室就《生成式人工智能服务管理办法(征求意见稿)》公开征求意见,《征求意见稿》共21条,从生成式人工智能服务商的准入,到算法设计、训练数据选择、模型到内容,以及用户实名和个人隐私、商业秘密等方面提出了相关要求。这意味着,当下爆火的生成式AI产业将迎来首份监管文件。
根据《意见稿》,生成式人工智能是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。
在责任划分方面,《征求意见稿》提出,利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人,包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。
《征求意见稿》体现了监管前置的思路。在准入资格方面,《征求意见稿》提出,利用生成式人工智能产品向公众提供服务前,应当按照相关规定向国家网信部门申报安全评估,并履行算法备案和变更、注销备案手续。
《征求意见稿》还要求,企业提供生成式人工智能产品或服务,应当遵守法律法规的要求,尊重社会公德、公序良俗;尊重知识产权、商业道德,不得利用算法、数据、平台等优势实施不公平竞争。而对于使用该服务的用户,需要提供真实身份信息。《征求意见稿》还提到,利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。
在保护个人隐私、商业机密等方面,《征求意见稿》中有多条提到相关要求。例如,提供者在提供服务过程中,对用户的输入信息和使用记录承担保护义务。不得非法留存能够推断出用户身份的输入信息,不得根据用户输入信息和使用情况进行画像,不得向他人提供用户输入信息;以及禁止非法获取、披露、利用个人信息和隐私、商业秘密。
同时,对于提供者,还要采取适当措施防范用户过分依赖或沉迷生成内容,保证服务的安全、稳健、持续运营;对生成的图片、视频等内容进行标识等。提供者发现用户利用生成式人工智能产品过程中违反法律法规,违背商业道德、社会公德行为时,包括从事网络炒作、恶意发帖跟评、制造垃圾邮件、编写恶意软件,实施不正当的商业营销等,应当暂停或者终止服务。
从《征求意见稿》中能够看到,关于对于生成式人工智能的监管思路有三个特点:一是充分利用现行法律法规所提供的制度、机制;二是强调风险防范、风险应对和风险管理的基本思路;三是突出了生态式、流程式的监管方式,特别表现在技术应用全生命周期的多层次监管。
有关ChatGPT可能引发的安全和伦理问题,目前正引发全球关注。
有关ChatGPT的首个禁令来自意大利。就在3月31日,意大利个人数据保护局宣布即日起暂时禁止使用ChatGPT。随后,欧盟国家开始跟进酝酿相关监管措施。
美国拜登政府已经开始研究是否需要对ChatGPT等人工智能工具实行检查。作为潜在监管的第一步,美国商务部11日就相关问责措施正式公开征求意见,包括新人工智能模型在发布前是否应经过认证程序。