

作者丨魏顺光
当前,人们对于ChatGPT的狂热依然未减,随着ChatGPT的成功出圈,AIGC也引发了全球关于人工智能的持续热议和思考,或褒之、或贬之、或爱之、或惧之,然而人类已经无法逃离AI的汪洋大海,在ChatGPT炙手可热的背后,作为法律人,从法律规制的角度对ChatGPT进行冷静思考不仅非常必要而且还很紧要。
ChatGPT(全名:Chat Generative-Pre-trained Transformer)是美国人工智能研究室OpenAI 于2022年11月30日发布的聊天机器人程序,作为一款人工智能语言模型,一经推出,立即成为科技领域的“ 顶流 ”,并成功出圈。比尔·盖茨直言:“ChatGPT 的影响不亚于互联网和个人电脑的诞生!”一时以来,与ChatGPT相关的各种信息遍布网络,同时ChatGPT的问世掀起了AIGC(全名:AI generated content,即人工智能生成内容)新一轮的浪潮。据相关报道显示,国内的华为、腾讯、百度、阿里、京东、360等知名互联网企业已经纷纷布局AIGC业务,有些企业已经推出了AIGC相关产品。百度于2019年3月就发布了预训练模型ERNIE 1.0,2023年3月百度正式推出了“文心一言”。华为也于2021年4月发布了“盘古”,2022年4月,腾讯也对外正式披露了“混元”。2023年4月11日,阿里云智能CTO周靖人在北京云峰会现场揭晓“通义千问”, 4月18日,钉钉正式接入阿里巴巴“通义千问”大模型。全球已经被一波又一波的AIGC浪潮 “炸晕”,AIGC不仅给人们的生活带来了便利,而且还增添乐趣,但是,AIGC对多个社会领域应用场景的嵌入又让社会生活面临机遇与风险兼具的态势,伴随技术的不断演化和迭代,AIGC即将迎来更多的“类人化”的替代物,人类社会也将遭遇深层次多维度的巨大变革。技术的超前性必然引发潜在的、未知的、不可预测的技术风险和法律风险,同时在既有的法律层面上,少数人受到利益的驱使而明知故犯,因此AIGC所面临的法律问题不容小觑。

英国技术哲学家大卫·科林格里奇在1980年出版的《技术的社会控制》一书中写道:一项技术的社会后果不能在技术生命的早期被预料到。然而,当不希望的后果被发现时,技术却往往已经成为整个经济和社会结构的一部分,以至于对它的控制十分困难。这就是控制的困境。与其他通用目的技术一样,ChatGPT所代表的自然语言处理技术也面临着“科林格里奇窘境”(Collingridge dilemma),既充满希望,也隐含威胁。在信息困境层面来看,ChatGPT所带来的社会后果不能在技术的早期被预料到,在今天技术狂奔的时代,当ChatGPT带来的不利后果被发觉时,ChatGPT往往已成为整个社会和经济结构的一部分,该技术很可能会陷入“科林格里奇窘境”,而与此相对应的法律监管并未跟上技术的步伐。目前,人们已经意识到ChatGPT的应用正在对社会结构构成真实而迫在眉睫的诸如数据安全威胁、对人才教育的威胁、意识形态渗透的威胁,世界多国教育系统及相关从业者已公开抵制ChatGPT。根据相关资料显示,美国已有多所大学宣布计划减少居家评估,增加手写论文和口试。美国纽约、和洛杉矶等地的学区都叫停了学校管理的网络访问聊天机器人。在澳大利亚,部分大学也表示他们将恢复只使用监考的笔试考试来评估学生。法国的全球知名高校巴黎政治学院也宣布禁止使用ChatGPT。今年3月31日,意大利个人数据保护局(DPA)指责ChatGPT系统违反了欧盟《通用数据保护条例》(GDPR),并发表声明,禁止在意大利使用ChatGPT。ChatGPT对市场竞争、技术创新、消费者权利和国家安全所产生的负面影响,最终表现为潜在的诸如技术垄断、资本扩张、数据滥用、算法歧视、隐私侵权等法律风险和一时难以克服的法律困境。高新技术的迅猛发展必然引来投资机构的追捧和资本加持,ChatGPT也不例外。ChatGPT是由初创公司OpenAI开发,但是, ChatGPT的开发成本和运维成本非常高昂,并非OpenAI可以承受。要能获得运营所需的极其昂贵的数据资源和云计算能力,OpenAI必须与科技巨头合作,于是OpenAI选择与微软达成合作,得到了微软10亿美元的投资,微软的加盟在很大程度上预示着微软等科技巨头可以凭借其拥有的技术、资金、用户等优势在该领域中处于垄断地位。科技巨头不仅可以将其在原有市场力量迅速传导至新的市场,而且还可以通过实施技术封锁、数据屏障等限制竞争的行为以维持垄断地位。技术垄断不仅会导致不正当竞争的出现,还会引发市场竞争失灵、消费者选择权受限、价格不公平、创新能力下降等一系列法律问题。

算法治理关乎着国家政治安全、经济安全、文化安全和公民权益的保障。如何有效防止和化解算法应用的危害是目前算法治理的主要目标,也是算法开发者和设计者面临的合规难题。目前火爆的ChatGPT已经迎来4.0时代,但是在算法上依然存在一定的技术缺陷,例如,ChatGPT算法依赖于训练数据中的统计规律,无法爬取网络上的实时信息,同时也无法对数据来源进行识别和核实,这样就容易出现算法歧视和算法滥用。此外,由于训练数据受限于数据种类和数据内容,如果数据的中立性和数据的完整性出现残缺,则数据集就会产生某种错误的价值倾向,这样ChatGPT算法输出的结果可能就会产生错误的内容或偏见的指引,例如如果数据训练集中包含性别、年龄、国别、信仰、种族等歧视的数据,就会误导ChatGPT将具有歧视性的回答视为“正确答案”而作出错误的决断。因此,算法偏见极易引发诸如国家政治安全、文化安全等潜在的法律风险。与算法偏见相关联,ChatGPT所引发的虚假信息问题也难以克服,识别和治理虚假信息问题首先需要克服的ChatGPT技术困境和法律困境。由于ChatGPT是建立在AI背后已有的自然语言文本信息(语料库)基础上进行概率统计,其反馈的问题答案其实就是“统计结果”,在许多问题的回答上ChatGPT可能会“一本正经的胡说八道”,这种看似“正确答案”,实则是离谱的虚假信息。如果ChatGPT应用到商品或服务的客户评价或客户投诉等领域,虚假信息会具有极大的误导性,甚至引发严重的法律后果。鉴于ChatGPT在技术层面上目前无法突破上述困境,以ChatGPT为代表的AIGC产品如果要应用到搜索引擎、客户投诉系统等领域,数据的全生命周期和全链条合规必不可少。当前关于ChatGPT生成内容的知识产权讨论异常激烈,目前讨论的焦点主要集中在两个方面,一是ChatGPT生成的答复(论文)是否具有独创性,即ChatGPT生成论文的著作权的归属问题;另一个问题是ChatGPT生成的答复(论文)是否构成学术不端或侵权。根据我国著作权法第三条的规定,作品是指文学、艺术和科学领域内具有独创性并能以一定形式表现的智力成果。很显然,在我国知识产权制度架构中,是否具有独创性是判断AI是否可以成为著作权人的核心标准。目前,在包括中国在内的大部分国家的知识产权制度中,作品的作者仅有可能是自然人,AI无法成为作品的作者,我国的相关司法判例也给出了印证,例如,腾讯公司诉盈讯科技公司侵害著作权案([2019]粤0305民初14010号),该案裁判观点认为,涉案文章由是原告主创团队人员通过对相关股市信息、数据进行分析、判断、选择后,运用Dreamwriter软件生成的,法院认可AI生成内容具有独创性,但是该独创性也是由人所创作,涉案文章属于我国著作权法所保护的文字作品。该案裁判结果表明,虽然AI生成的内容属于作品,但是该作品的著作权属于法人,并非AI本身。国际保护知识产权协会(AIPPI)在2019年发布了《人工智能生成物的版权问题决议》,该决议认为AIGC在其生成过程中有人类干预,且该生成物符合受保护作品应满足的其他条件情况下,能够获得保护,对于生成过程无人类干预的AIGC无法获得版权保护。但是,也有观点认为随着AIGC技术的进步和纵深发展,未来AIGC可能改变目前的知识产权制度体系。
ChatGPT生成内容的著作权问题也给学术圈带来了巨大的冲击,学者们激烈探讨AI可能引发的侵权问题。目前已有国家和地区在学术层面进行了反馈,英国的《自然》(Nature)杂志一周之内两次发布有关ChatGPT的分析文章,讨论探讨AIGC大型语言模型(LLMs)可能会给学术圈带来的潜在风险和混乱,AIGC是否存在的潜在侵权,以及如何规范AIGC的使用问题。我国部分期刊已经尝试对AIGC的潜在侵权风险进行规范,例如《暨南学报(哲学社会科学版)》在2023年2月10日发布声明:(1)暂不接受任何大型语言模型工具(例如:ChatGPT)单独或联合署名的文章;(2)在论文创作中使用过相关工具,需单独提出,并在文章中详细解释如何使用以及论证作者自身的创作性。如有隐瞒使用情况,将对文章直接退稿或撤稿处理;(3)对于引用人工智能写作工具的文章作为参考文献的,需请作者提供详细的引用论证。目前ChatGPT是否会构成侵权仍然莫衷一是,主流的观点认为,鉴于ChatGPT是作为被人类所利用的客体和工具,不具备法律人格,因此不能承担相应的法律责任,如果ChatGPT生成内容侵害了他人的著作权或泄露他人隐私,由它的权利人或使用者来承担相应的法律责任。ChatGPT的运行需要海量的数据支持,其数据主要来源于爬虫数据集和人类语言数据集。尽管ChatGPT已经在数据合规方面采取了必要防范措施,但是ChatGPT固有的技术模型和数据安全中的风险很难克服。首先,虽然ChatGPT存储训练和运行模型所需的数据会严格遵守隐私和安全政策,但是网络攻击和数据爬取仍然存在潜在的数据安全隐患,特别是涉及国家安全、商业秘密和个人隐私的数据在流动和共享过程中的安全保护尤为重要。其次,由于ChatGPT需要依托海量数据库信息而存在,若用户在聊天时输入了诸如国家安全、商业秘密和个人隐私等敏感涉密信息,ChatGPT会识别信息并存储在后台, ChatGPT就会将该类数据纳入自身的语料库,因此ChatGPT可能会导致侵犯个人信息、泄露个人隐私、商业秘密以及国家秘密的风险。最后,由于AI需要抓取数据来反复训练算法,AI抓取的数据是否合法以及抓取行为是否侵权还会涉及数据是否合规的问题。
虽然新技术的发展会带来“科林格里奇窘境”,但是风险与规制相生相随,唯有建立规范的监管体系,采取适当超前的制度创新,以ChatGPT为代表的AIGC才能被纳入到一个安全可控的范围之内。AIGC 引发的安全风险已经引起了全球的高度关注。2023年3月30日,非营利组织人工智能与数字政策中心(CAIDP)向美国联邦贸易委员会(FTC)投诉称:GPT-4“有偏见性、欺骗性,对隐私和公共安全构成风险”。2023年3月29日,一份由1000多名知名科技专家签署的《暂停大型人工智能研究》公开信引起了全球的广泛关注,署名者包括图灵奖得主约书亚·本吉奥、特斯拉CEO埃隆·马斯克、苹果公司联合创始人史蒂夫·沃兹尼亚克、高级研究科学家扎卡里·肯顿等AI领域知名的企业家、学者和企业高管。虽然上述知名人士的呼吁未必能够阻止AIGC的前进步伐,但是,AIGC也不能野蛮生长,全球AIGC行业尚处于秩序调整阶段,各个国家的法律政策还在探索之中,而且各国政策呈现明显的差异性,例如,美国只有少数几个州发布了关于深度合成技术的法规,而且这些法规旨在规制影响选举的深度合成以及色情作品或虚假信息的深度合成,欧盟通过对《数字服务法》的修订,要求平台进行深度合成标注。欧盟对待AI相对谨慎,欧盟希望把 AI 的发展和应用纳入到一个确定的法律框架里,对此持有监管的态度。在世界各国对AIGC的技术治理中,我国的立法与监管并不落后,在政策层面上,我国出台了包括《新一代人工智能发展规划》《新一代人工智能伦理规范》《关于加快场景创新以人工智能高水平应用促进经济高质量发展的指导意见》《关于支持建设新一代人工智能示范应用场景的通知》等促进和规范人工智能产业发展的一系列纲领性文件。在法律层面上,我国已经颁布了《网络安全法》《数据安全法》《个人信息保护法》《民法典》《著作权法》等法律规定,这些法律为AIGC的监管和治理提供了基本的制度遵循。《互联网信息服务算法推荐管理规定》于2022年3月开始实施,在该规定中就有对生成合成类算法监管的具体规定。2023年1月1日《互联网信息服务深度合成管理规定》正式实施,深度合成因其重要性和高风险程度成为我国算法治理中率先专门立法的算法服务类型。2023年4月11日,国家网信办发布了《生成式人工智能服务管理办法(征求意见稿)》,该管理办法旨在更好促进生成式人工智能技术健康发展和规范应用。由此可见,我国关于生成式人工智能的法律监管已逐步深入。但是,无论是欧美国家的法律监管还是我国的立法实践,目前均处于法律和政策的探索阶段,即便现有的法律政策在立法层面逐渐完善,但是基于政治、经济和社会法治的各层面考量,现有的法律政策是否具有可行性、可操作性还有待实践的检验。

面对AIGC技术的“狂飙”,现有的制度性规定比较零散,立法实践中往往出现“头痛医头脚痛医脚”的选择性立法,在监管执行层面也尚未形成科学化的监管生态体系,因此要想有效防范AIGC法律风险必须设置科学合理的法律监管规则。针对AIGC的控制困境,需要从AIGC的整个生命周期着手,从语言模型的建立、语料库的建立、语料库的标注、模型训练、投放市场后的迭代进化直到系统退出使用等全链条均需要合规化监管。《生成式人工智能服务管理办法(征求意见稿)》第十四条就明确要求:“提供者应当在生命周期内,提供安全、稳健、持续的服务,保障用户正常使用。”此外,对于ChatGPT的监管还必须将算法监管和数据监管结合起来,探索场景化和精细化的算法治理机制。《互联网信息服务算法推荐管理规定》第七条规定:“算法推荐服务提供者应当落实算法安全主体责任,建立健全算法机制机理审核、科技伦理审查、用户注册、信息发布审核、数据安全和个人信息保护、反电信网络诈骗、安全评估监测、安全事件应急处置等管理制度和技术措施,制定并公开算法推荐服务相关规则,配备与算法推荐服务规模相适应的专业人员和技术支撑。”该规定对于算法推荐服务提供者的主体责任进行了精细化的明确规定。关于数据的全生命周期,《数据安全法》第三条规定:“数据处理,包括数据的收集、存储、使用、加工、传输、提供、公开等。”数据治理应当基于上述全数据生命周期的视角,开展政策研究、合规评估、管理体系和技术措施等相关工作。技术快速更新迭代导致AIGC的合规监管也是一个动态的调整过程,但是为了避免出现监管空白或制度冲突,在制度设计上应该具有适当的前瞻性,立法者应当预设AIGC可能的应用场景,然后将各个具体应用场景放在现有的制度框架中进行风险排查,在权衡AIGC的技术价值和社会价值基础之上,寻求法律制度的平衡点,再制定出具有可行性的监管规则。例如,在AIGC领域的反垄断法监管方面,由于传统反垄断法的事后规制存在滞后性和局限性,难以有效应对AIGC领域的市场垄断问题,在立法层面上就需要进一步调整和优化AIGC领域的反垄断法相关监管规则,提高反垄断法律法规在AIGC应用场景的适用性,预防AIGC可能出现的算法垄断以及滥用市场支配地位等反竞争风险。再如,在AIGC著作权归属方面,由于AI不能作为为著作权人,但是可以结合我国现有著作权法的相关规定,探索根据不同主体对生成内容的作用大小来判定AIGC作品的著作权人。构建多元化监管体系是AIGC有效监管的重要保障。多元化的监管体系包含AIGC的外部监管和AIGC的自我监管两个维度。AIGC的外部监管主要是指源自于政府机构的行政监管,例如,国家网信部门关于互联网信息安全领域的监管、公安机关对侵害公民个人信息犯罪与计算机犯罪的监管、市场监管局关于维护消费者合法权益的监管等均属于相关行政主管部门的监管范围,此外,源自于AIGC用户的监督和反馈也属于外包监管。AIGC的自我监管包括对内和对外两个方面。对内而言,数据合规、技术迭代更新、算法优化等均存在潜在的法律风险,AIGC服务提供者需要建立包括安全运维、培训学习、应急预案、事后复盘和内部追责等重点工作在内的一系列风险防范的内部管控制度,对外而言,AIGC服务提供者需要建立公众使用预警制度,当公共用户使用AIGC从事违法犯罪行为的时候,AIGC服务提供者有义务删除或者制止这些侵权或非法行为。《生成式人工智能服务管理办法(征求意见稿)》第十九条对此有类似规定:“提供者发现用户利用生成式人工智能产品过程中违反法律法规,违背商业道德、社会公德行为时,包括从事网络炒作、恶意发帖跟评、制造垃圾邮件、编写恶意软件,实施不正当的商业营销等,应当暂停或者终止服务。”只有外部监督和内部监督共同参与,政府和平台多方相互协调监管,才能构建防范AIGC潜在法律风险的有效机制。

AIGC技术带来的潜在风险仅仅依靠法律层面的制度建设并不能从根本上解决问题,同时也不能依靠一朝一夕的临时监管运动进行监管。在AI已经来临的时代,需要充分发挥出技术治理的内驱动力与法律规制的外部规制,同时发挥文化引领的价值取向,打造技术,法律、文化等多维并举的系统性监管生态,用良性互动的监管生态来为AIGC安全应用筑起牢固的保障体系。首先,可以发挥技术本身的优势,在开发AIGC应用场景和相关产品时设置内部监测系统,例如,可以通过嵌入相应的算法,程序或代码,在捕捉录入数据及生成数字内容时标记并报告可疑的伪造虚假信息,从而实现系统的自我监控功能。其次,鉴于技术驱动的内在风险,在法律层面上要加快推进人工智能立法专项研究,在借鉴美国、欧盟等人工智能立法成果的基础上推进立法和修法工作。最后,要进一步营造AIGC风险防范的文化氛围,AIGC开发者应当推动网络安全和数据安全的文化体系建设,通过文化建设来增强相关机构和人员风险防范意识,用风险防范文化引领AIGC产品的价值追求。
技术发展的滚滚车轮已经势不可挡,以ChatGPT为代表的AIGC技术具有巨大的发展前景,更多人愿意接受和拥抱技术带来的便利和新的发展机遇,在这个急剧变化的时代,人们更愿意相信技术会给人类带来福祉而不是灾难,但我们也必须正视ChatGPT爆火背后潜在的法律风险,人类如果不能有效防范和化解技术背后的潜在风险,技术发展也可能会演化为灾难。以ChatGPT为代表的AIGC已经成为世界AI领域竞争的新赛道,掌握AI治理的话语权、规则制定权,抢先形成新的国家竞争优势,已经成为各个国家努力发展的目标,在这个赛道上,中国理应不能落后,而且更应该走在世界前列。
免责声明:本文仅代表作者本人观点,不代表律新社的观点和立场。