杨宇宙 AI产品的的域外监管与法律责任前瞻
来源:火狐娱乐 发布时间:2025-12-19 02:31:40
在人工智能加快速度进行发展与全球技术竞争加剧的大背景下,围绕人工智能的知识产权保护日益成为产业关注焦点。2025年12月12日,由YIP Events & 知产前沿新媒体举办的第五届知产前沿人工智能论坛在上海静安铂尔曼酒店顺利闭幕。本次论坛以“AI技术驱动下的知识产权及合规挑战”为主题,围绕生成式人工智能技术在专利申请、数据保护、企业合规和著作权保护中的核心问题展开交流,并探讨 AI 技术对知识产权制度的冲击及人工智能知识产权全球政策动态等议题,为AI领域的知识产权与法务从业者提供学习和合作平台,推动我国人工智能产业健康发展。
12月12日下午,大成(上海)律师事务所高级合伙人、中国区董事杨宇宙以“AI产品的的域外监管与法律责任前瞻”为主题发表演讲。演讲围绕欧盟《AI法案》下的高风险AI系统分类与合规义务、美国人工智能治理动态与企业法律合规要点、AI生成内容的版权与侵权责任分配三个维度进行展开,旨在为中国企业系统梳理人工智能产品出海过程中面临的主要域外监管框架与潜在法律责任风险,帮助企业在复杂多变的国际监管环境中提前识别合规红线,构建系统的合规应对路径。
欧盟《AI法案》是目前全球最为系统、最具整体性的一部综合性人工智能立法,旨在促进欧洲可信赖的人工智能发展。其规则设计在未来可能成为各国制定本国人工智能监管制度时的重要参考范本,从而在全球范围内产生示范效应。法案呈现出明显的域外适用特征,其适用并不以企业注册地或服务器所在位置为判断依据,只要相关人工智能系统的产品或服务面向欧盟市场,即使相关活动主要发生在中国境内,也可能被纳入其规制范围之内。
(2)部署者:即真正落地使用该系统的一方,欧盟《AI》法案适用于任何负责部署人工智能系统的提供者或实体。
从使用角度看,法案关注的核心是相关人工智能系统是否被“设计用于欧盟境内的使用”。对于中国企业而言,只要在境内提供模型接口服务、以SaaS形式向全球开放,如果未明确排除欧盟市场,或在欧盟市场投放搭载AI模块的终端产品,均可能受到该法案的规制。
欧盟《AI法案》对人工智能系统的界定较为宽泛:凡是基于机器的系统,其设计能够以不同程度的自主性运行,并在部署后可能表现出适应性,并且能够根据其接收到的输入,推断出如何生成诸如预测、内容、建议或决策等输出,从而影响物理或虚拟环境,以实现明确或隐含的目标,原则上均可构成人工智能系统的范畴。
欧盟《AI法案》将风险定义为“损害发生的可能性和损害的严重程度的结合”。基于风险的人工智能系统分类是《人工智能法案》的一个基本方面,重点关注人工智能系统可能对健康、安全和基本人权造成的潜在危害。法案将人工智能系统分为四个不同的风险等级:
(1)不可接受的风险:如严重侵犯基本权利,此类人工智能系统被直接禁止使用。
(2)高风险:高风险的人工智能系统受到严格的监管要求,法案要求企业建立完整的风险管理、数据治理、文档记录、日志记录、人类监督等机制。
(3)有限风险:此类别的人工智能系统具有有限的风险,但有特定的透明度义务,例如需向用户说明其正在与AI系统交互。
(4)风险极小或无风险:风险极小或无风险的人工智能系统不受欧盟《AI法案》的监管限制。
对企业而言,AI项目自立项阶段即应引入法务参与,以便协同业务团队对项目进行前置性的风险识别与定位。若项目涉及就业、教育、金融服务、关键基础设施等高度敏感的应用场景,即使当前并无进入欧盟市场的计划,也应按照高风险系统的标准提前开展审查,以便为未来可能的合规调整预留充分空间。
2025年11月11日,欧盟数据保护监督局(EDPS)发布了《人工智能系统风险管理指南》(以下简称为“指南”)。指南重点聚焦人工智能系统在数据处理链条中引入的技术性风险,并提出全流程风险管理方法与合规建议,旨在帮助数据控制者在根据《2018/1725号条例》(EUDPR)开发、采购和部署人工智能系统时进行数据保护风险评估。
指南强调,风险管理是指一个组织控制风险的过程,而该活动的核心是风险评估。在风险管理过程中,组织需要连续地识别、分析和评估风险,然后进入风险处理阶段。风险管理过程的步骤如下:
(1)风险识别:在项目立项及方案设计阶段,由业务、技术、法务共同识别可能存在的风险,并据此形成系统的风险清单。
(2)风险分析:在识别的基础上,进一步评估风险发生的概率及其对数据主体的潜在影响。
(3)风险评估:需要将分析结果与企业自身风险偏好、风险承受能力进行比较,以判断风险是否可接受。
(4)风险处理:依据前三步的结论制定相应的技术和管理措施,并在系统实际运行过程中持续监测其效果,必要时调整措施与评估结果。
该指南将AI生命周期划分为构思/分析、数据采集与准备、开发、验证与确认、部署、运行与监控、持续验证、复审机制、退休九个阶段。指南指出,风险可能出现在AI系统开发周期的不同阶段,各阶段面临的风险类型与严重程度并不相同,所需控制措施亦应随之调整。
值得强调的是,指南特别指出可解释性及可说明性是企业必须重点关注的合规要点。可解释性侧重理解模型内部结构与输入输出关系,主要面向技术人员;可说明性聚焦对具体预测给出易懂理由,更面向用户和监管者。若AI系统在重大权益场景中作出影响个体权利的判断,而使用者无法理解其逻辑,也无法向监管机构或当事人说明基本推理过程,则会被认定为重大风险。基于此:
(1)若采购第三方系统:企业应在合同中明确要求供应商提供必要的技术说明、测试材料,并约定当监管机构或司法机关要求披露系统逻辑时,供应商需积极配合说明。
(2)若为自研系统:企业应内部保存相关设计和测试记录等资料,以备外部监管或争议解决时能够清晰说明系统的基本判断路径。
对高风险人工智能系统的全面监管构成了欧盟《AI法案》的主要部分。根据第6.(1)(2)条的规定,如果人工智能系统对欧盟内人员的健康、安全和基本权利产生重大不利影响,则会被认定为高风险人工智能系统。不同的高风险人工智能系统适用不同的监管方式,具体可分为两类:
(1)针对“附件一”的监管:该部分主要衔接传统的产品安全立法。如果AI系统作为医疗器械、特定机械设备、玩具等产品的安全部件,或者本身即构成该类产品,并且相关产品依法需要接受第三方合格评定,则该AI系统将依附件一进行监管。
(2)针对“附件三”的监管:附件三针对的是具有特定用途的 AI 系统,并直接列举了若干被当然视为高风险的应用场景,主要包括:在教育和职业培训领域中,用于考试评分、录取决策或学生评估的系统;在就业和人力资源管理领域中,用于候选人筛选、绩效评估、晋升或解雇决策的系统;在金融和基本公共服务领域中,用于信用评分或风险评估以及承担交通、电力等关键基础设施运行与调度职能的系统;在移民、边境管理、执法和司法领域中用于风险评估和决策支持的系统。实践中,中国企业常见的 AI 人力资源管理、AI 教育评估、AI 金融风控等项目,均有较大可能落入附件三的适用范围。
若AI系统被嵌入产品之中,用于制动、防护、监测或报警等安全相关功能,则该系统除需符合《AI法案》的要求外,还必须同时满足相应的产品安全法规,并在多数情况下接受第三方的专门符合性评估。对于从事机器人、医疗设备或车载产品等研发和生产的企业而言,如计划将搭载AI功能的产品投放欧洲市场,人工智能合规与产品安全合规在实践中难以割裂,需整体统筹考虑。
法案第7条授权欧盟委员会可根据实际情况随时扩充附件三的清单。只要某一AI用途属于附件三所涵盖的领域,且对健康、安全或基本权利的风险程度不低于既有项目,就可能被新增认定为高风险AI系统。对于计划在欧盟市场涉及人脸识别、风险评分、招聘筛选等应用场景的企业而言,更为稳妥的做法是在产品设计和开发之初,即按照高风险AI系统的标准进行规划和生产。
(1)主体身份明确:主体身份可被识别,需在人工智能系统上注明提供者的名称及其联系方式。
(2)过程可追溯:建立并保存完整的质量管理体系、技术文档及运行日志等资料。
(3)证明合规:依法完成符合性评估,出具合规声明,并在符合条件时加贴欧盟CE标志。
企业应参照欧盟“协调标准”进行系统设计,并根据《AI法案》完成符合性评估;若AI系统属于附件三所列高风险系统,且又落入附件一产品安全法规范围,则提供者需进行叠加评估程序,即提供者必须遵循附件六中规定的内部控制程序,也应遵循附件一法案中规定的符合性评估程序。此外,对高风险人工智能系统的重大修改需要进行新的符合性评估。
欧盟《AI法案》赋予部署者独立的法律义务,即便其并非系统开发方,仅作为使用者亦须履行相应义务,主要包括:
(1)建立内部技术与管理措施:确保系统不被用于未经审查的场景,防止超出设计边界滥用。
(2)对数据使用负责:对输入系统的数据负责,保留关键信息采集和处理日志,以便未来重建决策过程。
(3)员工参与:使用人工智能系统对员工进行管理和评价时,应保障员工代表或工会的参与权。
(4)数据保护评估:在涉及大规模或高风险个人数据处理的情况下,通常需依法进行数据保护影响评估。
企业在对外合作中既应通过合同强化对供应商的合规与配合义务约束,也应在内部制度中明确自身责任,避免将法律风险简单外包。
欧盟《AI法案》设置了较为严厉的罚款制度,违反高风险AI系统相关义务的,最高可处以1500万欧元,或企业上一财年全球营业额3%的罚款。违反通用大模型提供者义务或法案所列禁止性规定的,最高罚款可达3500万欧元,或上一财年全球营业额7%。以全球营业额比例为依据的罚款机制,与欧盟数据保护领域的监管模式高度一致,体现了其严厉性。罚款可由国家机构、欧洲数据保护监管局或欧盟委员会执行。欧洲数据保护监管局可对欧盟机构、机关和团体处以罚款。欧盟委员会可对通用人工智能模型提供者处以罚款。国家机构可对其他运营者处以罚款。
根据欧盟《AI法案》第九条至第十五条的规定,企业在欧盟运营和部署人工智能系统时需重点关注以下核心合规风险:
1.风险管理体系:企业需实施一套有据可查、持续进行的风险管理流程,涵盖人工智能的整个生命周期,从设计到上市后监测。这包括识别和评估已知和可预见的健康、安全和基本权利风险。
2.数据和数据治理:人工智能系统必须在相关、有代表性、无错误且完整的数据集上进行训练、验证和测试,并且数据集必须在合理的范围内。
3.技术文档:企业必须保存详细的技术文档,以证明符合该法案附件四中概述的规定。
4.透明度和用户信息:高风险系统必须自动记录事件,以支持可追溯性、性能跟踪和上市后监测。日志必须防篡改,并妥善保存。
5.人为监督:企业需确保有效的人工监督,从而预防或最大程度地降低风险。监督机制必须形成文件记录,并且负责监督工作的人员必须接受充分的培训。
6.准确性、稳健性和网络安全:高风险人工智能系统必须在其整个生命周期内保持适当的准确性、稳健性和网络安全水平,并能抵抗错误、滥用或对抗性攻击。
与欧盟相比,美国在人工智能监管路径上呈现出较为显著的差异。整体而言,美国当前人工智能治理格局呈现出“联邦引导、州级先行、政策多变、责任趋严”的特点。在联邦层面,美国主要通过立法、行政命令及各类政策性文件,对人工智能发展的战略方向、核心价值以及技术和安全标准进行宏观引导与统筹布局;而在州层面,各州则围绕隐私保护、未成年人权益、深度伪造治理以及平台责任等具体议题,形成了差异化、探索性的监管实践。对于在美国开展业务的中国企业而言,合规难点主要在于监管规则的高度碎片化:企业不仅需要遵循联邦层面的总体要求,还必须同步应对不同州之间在立法内容和监管重点上的显著差异,这对合规管理提出了更高要求。
在联邦层面,美国人工智能相关立法的核心功能在于“确立战略方向、搭建总体框架”。在战略层面,联邦政府通过立法将人工智能纳入国家发展规划,并设立专门办公室及跨部门协调机构,负责统筹不同监管部门之间的分工与协作。在技术与标准层面,则主要依托国家科学基金会、国家人工智能咨询委员会等联邦科学与咨询机构,引导技术发展方向,明确安全、伦理及风险底线。
企业需要注意的是,联邦层面的规范影响并不限于直接参与联邦项目或接受联邦资助的情形。在州立法和法院司法裁判中,联邦政策文件及技术标准往往被引用作为判断企业是否尽到“合理注意义务”的重要依据。
美国行政部门致力于通过行政命令、战略规划、报告、政策备忘录以及咨询协调委员会等方式,建立覆盖整个联邦政府的人工智能倡议与活动:一方面,总统行政令等具有直接约束力,要求联邦政府机构执行,但其不等同于法律,对企业的约束更多通过机构实施的后续规则;另一方面,政策性文件、技术标准和研究报告虽不具备法律效力,但通常可构成未来立法和监管的重要参考,对企业预判合规趋势具有现实意义。
在联邦层面尚未形成明确监管细则的背景下,美国许多州正成为AI领域监管探索的“实验场”,陆续开展立法探索。企业有必要关注各州法律动向。
美国多地州立法机构已将AI纳入既有隐私保护体系,尤其针对浏览行为、社交账号、数据交易等与个人高度相关的场景,对企业提出更为细致的合规要求。以加利福尼亚州为例:
AB 566旨在强化消费者隐私保护,核心内容为在不违反联邦法律的前提下,禁止企业开发或维护未内置“退出偏好信号”设置的浏览器,该设置需便于消费者查找和配置,能让消费者向通过浏览器交互的企业发送不愿其出售或共享个人信息的选择信号;对于移动操作系统,企业同样不得开发或维护未包含该设置的系统,此要求自加州隐私保护局通过关于移动操作系统退出偏好信号要求及技术规范的法规后6个月生效。
AB 621旨在加强对非自愿深度伪造色情内容的法律保护,对故意创建和分发深度伪造色情内容的行为规定了额外的民事责任,明确适用于深度伪造以及那些明知而促成制作或分发此类图像的人。它明确允许检察官采取执法行动,并增加了违法者可能面临的损害赔偿金额。
AB 656对平台企业的数据保留与备份机制提出明确要求,要求社交媒体公司确保注销会触发用户个人数据的完全删除。
SB 361要求数据经纪人(指明知收集并向第三方出售与自身无直接关系消费者个人信息的企业)向加州隐私保护局注册并遵守《2018 年加州消费者隐私法案》(CCPA)。该法案修订了CCPA,要求数据经纪人向该机构提供额外信息,包括数据经纪人是否收集消费者的登录或账户信息、政府身份证号码、公民身份数据、工会成员身份状态、性取向状态和生物特征数据。对依赖第三方数据建模的企业而言,供应链合规审查变得至关重要。
美国部分州已在州法层面对特定国家或特定企业的AI产品和服务设定限制,对中国企业跨境交付形成直接影响。
该法案禁止州机构员工使用州属或发放的电子设备、州运营网络访问“关切人工智能平台”(含DeepSeek及其关联公司模型,以及受中国、古巴、伊朗、朝鲜、俄罗斯、委内瑞拉等“关切国家”直接或间接控制的模型),要求已使用相关平台的州机构停用并删除账户,仅执法活动或网络安全调查用途豁免;此外,该法案禁止接受州资金的医疗和研究机构,使用由中国、俄罗斯、伊朗、朝鲜、古巴等“外国对手”(含其代理、受控实体或州长认定的其他实体)生产、州有企业制造、境内注册公司或其附属公司生产的基因测序仪及基因分析用操作/研究软件,要求移除未永久停用的此类设备与软件并替换。
该法案将蚂蚁集团、字节跳动、华为、卡巴斯基、腾讯、中兴等企业及其关联/继任实体列为“受监管供应商”,把这些供应商提供的软硬件/服务或使用其开发、拥有的人工智能的软硬件/服务界定为“受监管产品”。法案要求州机构、州务卿办公室、州财政部长办公室需禁止受监管产品安装、下载、使用或访问州信息技术资产,移除已存在的该类产品并采取防范措施。
总体而言,企业正从相对宽松的数字创新环境,转向法律责任高度敏感、监管高度碎片化且动态演变的新阶段,其主要影响体现在:
1.合规成本与复杂性飙升:企业需同时应对联邦与各州差异化、动态变化的监管要求,在数据治理、模型测试、内容审核、用户披露等方面建立复杂的合规体系;
2.责任链条延长:法律责任不仅追究最终用户或部署方,更向上游延伸至开发者、训练数据提供方、平台方等。技术提供者“未采取合理保障措施”可能需承担连带责任。
3.政策不确定性成为持续性风险:联邦与州之间(如国会试图限制州立法)、两届政府之间的政策摇摆,要求企业具备高度的合规弹性和敏捷的政府事务能力。
德国 GEMA 案直接认定 OpenAI 对训练和输出都负主要责任,明确否定通过用户协议转移责任的做法。
目前大多判决/裁定对“训练阶段”与“输出阶段”分别考察:训练阶段侧重复制受保护作品是否构成直接侵权,是否属于“合理使用”的例外情形;而输出阶段要求具体比对和“实质性相似”,一般不接受“一切输出都侵权”的总括理论。
Anthropic和解案中,法院与和解安排几乎把矛头锁定在“从盗版网站抓书”这一环节,而非笼统否定AI训练本身。未来针对平台的合规义务很可能会具体化为:数据来源审查、许可机制、数据清理与删除义务等。
英国 Getty v. Stability AI 中,法院否定了“模型本身存储版权作品的复制品”的观点,从而大幅削弱了基于模型本身构成侵权复制品的二次侵权责任;相比之下,德国法院更侧重于训练行为与输出行为的整体效果,对模型内部是否存储复制品并未作过度强调。
1.前置风险控制:开发者在设计开发环节就应谨慎规避侵权风险,可制定限制输出的内部准则、设置过滤器阻止复制,并为未来调整预留技术空间。
2.保证数据来源的合法性:严格审查数据获取渠道,避免使用盗版或未授权数据。
3.强调抽象学习而非内容复制:模型训练过程应注重“学习作品模式”而非“直接复制版权作品”,避免成为“存储版权作品的复制品”被部分法域法院规制。训练推理可通过参数策略,否则会面临法律风险。
AI产品出海已不再只是意味着业务版图的拓展,而是直接考验企业能否在不同国家和地区适用的多重法律与监管框架下实现整体合规。实践中,合规不应仅被视为事后补救措施,而应前移至产品设计、数据治理、合同结构及日常运营流程之中,进行系统性、前瞻性的嵌入。企业越早建立起完整而可持续的合规体系,在未来面对监管审查、法律纠纷及合规风险时,越能够掌握主动空间与应对余地。