提交成功
2024-01-17

机遇与挑战:生成式人工智能法律合规系列(四):生成式人工智能知识产权与内容安全法律风险应对建议


引 言


近年来,生成式人工智能发展迅速,取得了众多进展和突破,据统计,预计到2026年,生成式人工智能市场将从2021年的15亿美元增长到65亿美元,复合年增长率达34.9%;生成式人工智能产生的数据将占所有数据的10%,而目前这一比例还不到1%。但同时,该技术的快速发展也带来了一系列新问题与挑战。


我们根据《生成式人工智能服务管理办法》《互联网信息服务深度合成管理规定》《互联网信息服务算法推荐管理规定》《生成式人工智能服务安全基本要求(征求意见稿)》等规范性文件的相关要求,为生成式人工智能服务提供者的运营进行法律层面的合规指引。并将于近期通过系列文章陆续推出,欢迎各位持续关注。




生成式人工智能知识产权法律风险应对建议



《生成式人工智能服务管理暂行办法》规定,提供和使用生成式人工智能服务,应尊重他人的知识产权。知识产权制度具有激励创新和利益平衡的双重功能,对人工智能产业发展乃至建设创新型国家具有不可替代的作用。


(一)

如何避免知识产权侵权


图12:生成式人工智能知识产权风险应对


1. 加强企业内部知识产权管理


生成式人工智能服务安全基本要求(征求意见稿)》对生成式人工智能服务的知识产权管理提出了要求:


· 提供者应设置数据以及生成内容的知识产权负责人,并建立知识产权管理策略;


· 数据用于训练前,知识产权相关负责人等应对数据中的知识产权侵权情况进行识别,不应使用有侵权问题的数据进行训练,需特别关注如下方面的问题:


♢ 训练数据包含文学、艺术、科学作品的,应重点识别训练数据以及生成内容中的著作权侵权问题;


♢ 训练数据中的商业数据以及使用者输入信息的,应重点识别侵犯商业秘密的问题;


♢ 训练数据中涉及商标以及专利的,应重点识别是否符合商标权、专利权有关法律法规的规定。


· 建立知识产权问题的投诉举报以及处理渠道;


· 在用户服务协议中,向使用者告知生成内容使用时的知识产权相关风险,并与使用者约定关于知识产权问题识别的责任与义务;


· 及时根据国家政策以及第三方投诉情况更新知识产权相关策略;


· 宜公开训练语料中涉及知识产权部分的摘要信息;


· 宜在投诉举报渠道中支持第三方就语料使用情况以及相关知识产权情况进行查询。


对于最后两项要求《生成式人工智能服务安全基本要求(征求意见稿)》使用的是“宜”而非“应该”,可见该项要求并非强制性的要求,企业可以根据自身情况量力而行。



2. 使用具有合法来源的作品/制品进行训练


通常来说,具有合法来源的作品/制品包括自有版权作品、已过保护期的作品、取得著作权人授权的作品等。


在首部由人工智能微软小冰创作的诗集《阳关失了玻璃窗》中,微软小冰所受训练和学习的材料是建国前后519位抒情诗人的作品。面对小冰创作的作品可能存在的知识产权问题,微软方面曾做出这样的解释:“小冰内容生成能力的训练,全部来自于公开无版权问题的数据,或经过合作伙伴授权的数据。”


著作权集体管理组织是目前法律框架下解决大量权利许可的一种比较可行的办法,也是国际通行的做法。我国目前已有音乐、音像、文字、摄影和电影五个著作权集体管理组织。在生成式人工智能训练数据的著作权授权过程中,可以通过著作权集体管理组织获得某一领域的作品授权,充分发挥著作权集体管理组织的保障效能,减少数据合法性风险。即使在无法判断某一作品权利人是否系著作权集体管理组织会员的情况下,也可以通过延展代理机制保证权利人的获酬机会,表达人工智能服务提供者尊重著作权的善意。1


除了向著作权集体管理组织寻求集体授权外,也可以向特定的大的版权方寻求合作。例如,据报道,谷歌在与环球音乐洽谈人工智能音乐版权的授权问题。谈判目标是开发一套工具,让粉丝可以合法生成人工智能音乐,并向版权所有者支付费用,在整个流程中艺术家拥有是否加入的选择权。同期,谷歌与华纳音乐的谈判也在进行中。


对于授权作品来说,企业要关注授权的权利类型(复制权、改编权、信息网络传播权)、授权期限等问题,建议提前续约或者一旦授权期限届满,立即停止使用相关作品或者制品。


值得注意的是,近期谷歌、微软、Adobe、OpenAI均表示,若用户使用其人工智能产品产生侵权诉讼,将由其承担责任。Adobe正式为企业用户推出AIGC工具Firefly,并专门成立法律基金,提供“对生成内容侵权诉讼的全面补偿”服务,从而使企业客户可以放心在公司业务部署生成式人工智能工具。Adobe承诺用户在使用Firefly过程中若涉及版权侵权诉讼,都由Adobe承担赔偿。官方声称,Firefly模型数据主要来源于Adobe已有版权的库存图片、公开授权的内容,在合规性和知识产权保护方面均有保障。


谷歌承诺,如果用户因版权问题受到质疑,谷歌将承担所涉及的潜在法律风险。但前提是用户没有故意使用人工智能工具生成侵犯他人权利的内容,同时,此次法律保护承诺的适用范围未包括谷歌的搜索工具Bard。


微软总裁布拉德·史密斯发文称,微软的Windows Copilot、Microsoft 365Copilot和Github Copilot等生成式人工智能产品设有“护栏”功能,确保不会侵犯他人版权。若用户启用内容过滤器后,使用Copilot等生成式人工智能产品而导致版权纠纷,微软会为客户提供法律援助和辩护,如果出现任何不利判决或者和解赔偿,微软会承担支付所有费用。


人工智能公司OpenAI在开发者大会上宣布,如果用户因人工智能生成内容造成版权侵权被起诉索赔,其将向用户提供版权保护盾:为客户辩护并报销过程中产生的费用。


3. 向用户获得输入输出内容的授权


通常情况下,用户输入的内容(部分内容可能构成作品或者制品)也会成为训练数据的来源之一。对于这部分内容来说,建议企业事先通过用户协议的方式向用户获得授权,例如可以在服务条款或用户声明中约定,用户授予公司对其输入的内容以及生成的内容进行免费使用,包括数字化使用、用作训练数据等。


Midjourney在其用户协议中规定,“通过使用服务,您授予Midjourney及其继承者、指定第三方,永久的、全球性的、非排他性的、可再许可的、免费的、不可撤销的版权许可,以复制、准备衍生作品、公开展示、公开表演、再许可和分发您在服务中输入的文本和图像提示,或在您的指示下由本服务生成的资产。”国内的部分大模型在其用户协议中也有类似约定。


此外,按照《生成式人工智能服务安全基本要求(征求意见稿)》,生成式人工智能服务提供者还应在用户服务协议中,向用户告知生成内容使用时的知识产权相关风险,并与使用者约定关于知识产权问题识别的责任与义务。


4. 根据自身的盈利模式考虑是否将生成内容的相关权利授予用户


是否将人工智能生成内容的相关权利例如著作权授予用户,需要企业根据自身的盈利模式、发展模式作出决定。根据权利义务相一致的原则,如果将人工智能生成内容的相关权利授予用户,通常情况下,对于企业来说,生成内容的著作权侵权风险相对降低。例如,openAI在其用户协议中声明,通过OpenAI服务生成的内容的权利归用户所有,用户对相关内容负责。国内的字节豆包等大模型也采取类似的做法。


5. 加强生成内容的知识产权审核力度


对生成内容进行审核是生成式人工智能服务提供者一项必须履行的义务。审核的内容既包括对内容安全的审核,也包括对知识产权的审核。根据《互联网信息服务深度合成管理规定》的规定,生成式人工智能服务提供者,需要配备专业的团队,对生成内容进行审核。一旦发现生成内容与他人作品或者制品构成实质性相似等,立即采取删除等合理措施。


目前,大部分企业通常采取机器审核加人工审核的方式,也有部分企业将知识产权审核业务通过外包的方式授予第三方公司进行完成。


6. 设置便捷的投诉举报通道


《生成式人工智能服务安全基本要求(征求意见稿)》要求生成式人工智能服务提供者建立知识产权问题的投诉举报以及处理渠道。对于生成式人工智能服务提供者来说,由于业务本身的高风险性,在产品或者服务的显著位置设置便捷的投诉举报通道,及时处理用户的相关投诉举报,是十分必要的。



生成式人工智能内容安全法律风险应对建议



随着生成式人工智能的持续发展,虚假信息和信息内容安全的挑战也会增加,并会逐渐成为监管的重点之一。


(一)

内容安全风险应对建议


· 生成内容应准确响应使用者输入意图,所包含的数据及表述应符合科学常识或主流认知、不含错误内容;


· 服务按照使用者指令给出的回复,应格式框架合理、有效内容含量高,应能够有效帮助使用者解答问题。


图15:生成式人工智能生成内容安全风险应对


1. 实现输入数据加输出数据的双重审核


世界银行发布的《生成式人工智能报告》提到,“考虑到ChatGPT可能会生成虚假内容,即所谓的“幻觉”,人性验证对生成式人工智能尤为重要。”


《互联网信息服务深度合成管理规定》也规定,深度合成服务提供者应当加强深度合成内容管理,采取技术或者人工方式对深度合成服务使用者的输入数据和合成结果进行审核。


《生成式人工智能服务安全基本要求(征求意见稿)》要求生成式人工智能服务提供者在向使用者提供生成内容时,应设置监看人员,及时根据国家政策以及第三方投诉情况提高生成内容质量,监看人员数量应与服务规模相匹配。


近年来,各生成式人工智能服务提供者通过建立内容审核机制的方式落实互联网内容治理主体责任,“机审+人审”已成为其基本审核方式。在机审方面,审核准确率受审核类型、内容违规变种繁杂、网络黑灰产对抗手段加剧等影响而导致误报率偏高,需要人工叠加审核。在人审方面,使用人审外包服务已经成为市场主流,但不同的人审团队在人员管理、业务流程管理、审核能力等方面表现各异,行业内也未形成统一的标准。总体而言,缺乏合格的审核人员可能会导致包含虚假、不良信息的违法违规内容的传播。


2. 拒绝回答用户的不良问题


《生成式人工智能服务安全基本要求(征求意见稿)》要求生成式人工智能服务提供者在向使用者提供生成内容时,对明显偏激以及明显诱导生成违法不良信息的问题,应拒绝回答。即生成式人工智能服务提供者应该对用户的问题进行识别,不应该一味地响应。


3. 建立健全用于识别违法和不良信息的特征库


《互联网信息服务深度合成管理规定》要求深度合成服务提供者建立健全用于识别违法和不良信息的特征库,完善入库标准、规则和程序,记录并留存相关网络日志。违法和不良信息的特征库是与审核制度配套实施的,目的是为了更加高效的对违法和不良信息进行识别。


《生成式人工智能服务安全基本要求(征求意见稿)》也要求生成式人工智能服务提供者建立关键词库。同时要求关键词库应具有全面性、代表性,总规模不应少于10000个,应至少包含本白皮书表2中“违反社会主义核心价值观内容”以及“歧视性内容”共17种安全风险的关键词,“违反社会主义核心价值观内容”中每一种安全风险的关键词均不应少于200个,“歧视性内容”中每一种安全风险的关键词均不应少于100个。 每个关键词一般不应超过10个汉字或5个其他语言的单词。


4. 设置投诉举报机制


《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》均规定了受理投诉举报的义务。生成式人工智能服务提供者应当建立健全投诉、举报机制,设置便捷的投诉、举报入口,公布处理流程和反馈时限,及时受理、处理公众投诉举报并反馈处理结果。其目的是为了鼓励用户对人工智能生成物中存在的内容安全等问题进行举报,以实现用户与平台良性互动,共同治理的目的。


5. 严格执行处置措施


根据《生成式人工智能服务管理暂行办法》的规定, 生成式人工智能服务提供者一旦发现违法内容,应当及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改,并向有关主管部门报告。


如果发现使用者利用其生成式人工智能服务从事违法活动的,应当依法依约采取警示、限制功能、暂停或者终止向其提供服务等处置措施,保存有关记录,并向有关主管部门报告。


(二)

滥用风险应对建议


《生成式人工智能服务管理暂行办法》要求提供和使用生成式人工智能服务,应当尊重他人合法权益,不得危害他人身心健康,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益。但是,利用生成式人工智能进行深度伪造合成诈骗、色情、诽谤、假冒身份等新型违法犯罪行为仍然层出不穷。


1. 生成式人工智能滥用典型案件


近年来,国家已经整治了一批通过“AI换脸”软件侵犯公民肖像权、个人信息的行为。


● “AI换脸”侵犯肖像权


基本案情:林某系某短视频平台博主,拥有一定粉丝数量,日常会通过其账号发布含有本人肖像的国风造型短视频。2021年6月,林某通过其账号发布了一段身着古风汉服的短视频。后林某在由某公司运营的“AI视频换脸”微信小程序中发现含有该短视频中外部形象的视频要素合成模板,用户可以通过该小程序上传个人照片,将模板中的人脸替换为照片中的人脸,形成脸部特征不同而其他内容与原视频相同的新视频。


法院认为:“AI视频换脸”实质上是基于人工智能的人体图像合成技术。原视频中,原告林某以古风妆容并着汉服出镜,通过面部形象、体貌特征等能够对其主体身份进行识别。换脸后的新视频中,人物的面部特征发生变化,但对比原视频素材,仍能通过未被修改的衣着服饰、肢体动作及相应的场景细节识别出该身体形象对应的主体系原告。


因此,无论是对于原视频中对应的身体形象,抑或是案涉视频要素模板和“AI换脸”后视频中对应的身体形象,原告均享有肖像权。被告未经原告同意,擅自将含有原告肖像的视频存储在小程序中作为可供用户选择使用的合成视频要素模板,系利用人工智能信息技术手段编造或者伪造他人肖像的行为,侵害了原告的肖像权,应承担相应的侵权责任。


● “AI换脸”非法处理人脸信息


基本案情:2023年8月,杭州互联网法院开庭审理了一起“AI换脸”非法处理人脸信息公益诉讼。公益诉讼起诉人诉称,2021年左右被告以牟利为目的,在未取得被编辑人同意的情况下,利用“AI换脸”软件非法处理他人人脸信息,将他人人脸信息与部分视频中的人脸信息进行替换合成,制作生成虚假的换脸视频。


法院认为:杭州互联网法院经审理认为,人脸信息属于敏感个人信息中至为重要的生物识别信息,关系到每个个体的人格尊严、人身安全和财产安全。人脸信息的滥用牵涉到不特定社会群体的公共利益。


本案中,虞某使用换脸软件技术深度合成伪造视频和图片,未经相关信息主体同意,大量搜集、提取、替换、合成、存储他人人脸敏感信息等个人信息,并将深度合成伪造视频、图片发布于2000多人的多个社交软件群组中,同时,其为他人提供不特定主体的人脸替换定制服务,并为牟利而对外销售换脸软件、传授换脸技术教程,获得非法利益数万余元,上述行为构成对个人信息权益的侵害,使得潜在的社会不特定群体可能成为受侵害的对象,更可能导致公众形成“眼见不为实”的心理预期,破坏互联网数字世界中社会共同体的信任,损害了相关领域的社会公共利益。综上,法院认定虞某对于人脸深度合成技术的滥用行为,损害了社会公共利益,判决其承担停止侵害、赔偿损失、赔礼道歉的民事责任。


2. 生成式人工智能滥用应对建议


图16:生成式人工智能滥用风险应对


(1)对人工智能生成内容进行标识说明


《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》均规定了标识义务。即智能对话、智能写作、人脸生成、人脸替换、人脸操控等具有生成或者显著改变信息内容功能的服务,应当在生成或者编辑的信息内容的合理位置、区域进行显著标识,向公众提示深度合成情况。


早在2019年美国《深度伪造责任法案》就提出“任何含移动视觉元素的先进技术虚假内容应包含嵌入的数字水印,清楚地标识含更改的音频或视觉内容”。


法国于2023年6月10日通过的2023-451号法案规定,自媒体必须明确表示是否为推广产品而受酬,是否通过技术手段处理了图片,以及是否利用人工智能改变了人物形象或面容。违反规定的最高可能面临两年监禁、30万欧元的处罚,并将被禁止在社交媒体上从事商业活动。


因此,标识义务是生成式人工智能服务提供者必须履行的义务之一,以向公众说明相关内容是由人工智能生成或者利用人工智能对内容进行了改变。同时,也建议鼓励或者强制用户对相关内容主动进行标识。具体详见下一篇章的标识义务相关内容。


(2)部署相应的鉴别技术


《网络音视频信息服务管理规定》要求网络音视频信息服务提供者部署应用违法违规音视频以及非真实音视频鉴别技术。鉴于生成式人工智能服务被滥用的高风险性,研发或者应用相关技术手段来帮助识别人工智能生成内容是十分必要的。


2023年10月30日,拜登总统发布了《关于安全、稳定和可信的人工智能行政命令》,要求通过建立标准和最佳实践来保护美国人免受人工智能启用的欺诈和欺骗,这些标准和最佳实践用于检测人工智能生成的内容和验证官方内容。美国商务部将开发关于内容验证和水印的指导,以清楚地标记人工智能生成的内容。联邦机构将使用这些工具,使美国人能够轻松知道他们从政府接收的通信是真实的,并为私营部门和世界各地的政府树立榜样。


为了应对日益增长的人工智能生成图像欺诈问题,谷歌DeepMind团队推出了一款名为 SynthID 的工具,可以在人工智能生成的图像中嵌入人眼不可见的水印,但可以用专门的人工智能检测工具检测出来,以便于区分真实和虚假的内容。SynthID 的原理是在图像的像素中嵌入一个水印,但不会影响图像本身的质量和体验。DeepMind的CEO表示,这种水印随着人工智能模型的改进,会变得更加隐蔽和强大。腾讯安全部门研发的甄别技术AntiFakes也可分辨各种技术合成的“假脸”。


但是,这种鉴别技术是否可靠,仍然引发人们的担忧。近日,中东地区冲突中的“婴儿被烧焦”照片引发舆论关注,有人将其放入人工智能图片检测器OPTIC中,检测这些照片是否为人工智能生成,结果显示“由人工智能生成”。愤怒的网友去发布者推文下方留言,攻击他利用“人工智能欺诈”散播虚假信息。但很快人们发现,把同样的照片放到该人工智能检测软件上,检测结果几乎是随机的,既有显示“人工智能生成”,也有显示“非人工智能生成”。最后,OPTIC发表声明,称他们没有办法确定该图片是否由人工智能生成,希望大家理性判断。有分析指出,现阶段,利用电脑技术识别人工智能欺诈及“某图片是否由人工智能生成”并不可靠,人工智能图片治理还需重视水印识别。


(3)设置投诉举报机制


《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》均规定了受理投诉举报的义务。即生成式人工智能服务提供者应当建立健全投诉、举报机制,设置便捷的投诉、举报入口,公布处理流程和反馈时限,及时受理、处理公众投诉举报并反馈处理结果。其目的是为了鼓励用户对人工智能生成物中存在的内容安全、滥用等问题进行举报,以实现用户与平台良性互动,共同治理的目的。


(4)严格执行处置措施


根据《生成式人工智能服务管理暂行办法》的规定, 生成式人工智能服务提供者一旦发现违法内容,应当及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改,并向有关主管部门报告。


如果发现使用者利用其生成式人工智能服务从事违法活动的,应当依法依约采取警示、限制功能、暂停或者终止向其提供服务等处置措施,保存有关记录,并向有关主管部门报告。


(生成式人工智能法律合规系列文章未完,待续)



注释

1 《生成式人工智能数据训练知识产权合法性问题探讨》,张平,2023.8.31,《知识产权家》微信公众号。




文章分享
相关文章推荐