如果你今天打开 HuggingFace,随便点开一个热门模型,把
README.md 顶部的 license:
字段抽出来,大概率会看到这几种值:apache-2.0、mit、llama3.1、gemma、openrail、other。再点进去,发现每个都不完全一样——有的多出一份《Acceptable
Use
Policy》,有的要求商用超过某个用户量门槛必须去申请单独的协议,有的明确禁止做军事用途,有的允许蒸馏但禁止生成训练数据。
所谓「开源模型」在 2024—2025 年已经变成了一个光谱:一端是真正的 Apache 2.0 / MIT 纯宽松,一端是「下载免费、条款密密麻麻」的 source-available。工程团队在选型、微调、商用分发时,必须把这个差异看清楚,否则随时会踩到「你以为是开源、其实是有限使用许可」的陷阱。
本系列第十篇已经从文档、数据、模型三个客体的角度把 CC、ODbL、OpenRAIL、LLaMA 做了一个全景概览。本文聚焦「模型权重」这一个客体,把八类主流模型许可证逐条拆开,配合条款比较表、工程决策清单、真实事件,回答下面几个问题:
- 模型权重到底受不受著作权法保护?在不同司法区答案一样吗?
- OpenRAIL-M 的 Use-Based Restrictions 写的 13 条禁用场景,工程上如何落地到 API Gateway、ToS、模型卡?
- 我在内网做微调、对外提供 SaaS 推理、把微调后的权重上传 HF,分别要满足哪些条款?
- LLaMA 3.1 的「7 亿月活」到底怎么算?Tongyi Qianwen License 对月活也有门槛吗?
- 一个用 LLaMA 3 蒸馏出的学生模型、一个把 Qwen 与 Mistral 合并的 merge 模型,许可证怎么继承?
本文不是法律意见,是工程参考。所有条款引用以官方发布文本为准;对 2025—2026 年的条款变动会明确标注出处。
一、模型权重的法律客体定性问题
在讨论任何模型许可证之前,必须先问一个基础问题:模型权重到底是什么? 这个问题不解决,许可证的法律基础就是空中楼阁。
1.1 权重的三种定性候选
主流学界和立法机关讨论的候选至少有三种。
候选一:软件(Software)。
权重文件(.safetensors、.gguf、.bin)是计算机可读的二进制数据,加载到
PyTorch / Transformers
里就能执行推理,从功能上讲「像软件」。在这种定性下,著作权法把它当作「计算机程序」(computer
program)保护,软件许可证——MIT、Apache
2.0——可以直接适用。
候选二:数据库(Database)。 权重本质是由训练数据通过梯度下降「压缩」出来的几十亿到几千亿个浮点参数。它不是人类写出来的,也不是一段能独立执行的指令,而是一种「参数化的知识表示」。按照欧盟 1996 年《数据库指令》(Directive 96/9/EC)的框架,它更像一个「具有实质性投入的数据库」,适用 sui generis database right(数据库特别权利)。
候选三:无著作权客体(Non-copyrightable Subject Matter)。 如果权重的产生完全由训练算法自动完成,没有人类作者的「独创性表达」参与,那么在美国 Feist 案和 Thaler 案(Thaler v. Perlmutter, 2023)的原则下,它可能根本不受著作权法保护。在这种定性下,任何「模型许可证」都不是著作权许可,只能靠合同法(contract law)与商标法(trademark law)约束下游。
1.2 三地的倾向
不同司法区的倾向目前还不一致。
| 司法区 | 主流学说倾向 | 实际影响 |
|---|---|---|
| 美国 | 偏「合同法 + 商标」。USCO 2023—2024 的报告明确,纯 AI 生成内容不享有版权;权重是否可版权化未下定论,但保守派主张不可版权化 | 发布方倾向用商标(模型名)+ 服务条款(ToS)+ 合同约定约束下游,而不是单纯依赖著作权 |
| 欧盟 | 更接受 sui generis database right 或「计算机程序」解释,因为欧盟立法对「机器生成的实质性投入」已有保护传统 | OpenRAIL-M 在欧盟语境下更像真正的版权许可;AI Act 对通用 AI 模型有披露义务 |
| 中国 | 著作权法保护「作品」,强调独创性。模型权重是否构成作品无司法先例。实践中发布方多采用合同约束 + 注册商标 | 企业发布方更愿意使用「社区协议」形式,同时借助不正当竞争法、反不正当竞争法兜底 |
1.3 实际意义:为什么这件事关工程决策
这个定性问题看起来是法学院的争论,但它会直接影响你能否在某个权重上主张权利、能否起诉下游、能否把协议强制执行。
举三个工程上真实会遇到的场景:
场景 A:你发布了 Apache 2.0
的模型,发现下游没有保留你的 NOTICE
文件。 如果权重不是「作品」,Apache 2.0
的著作权许可基础就不成立;你只能诉诸商标(若你注册了模型名)或合同(若下游点击接受过
ToS)。
场景 B:你自己训练了一个基模,想「开源免费、但禁止军事用途」。 如果权重不是作品,你的「禁止军事」条款就不是版权许可的限制,而是合同限制——合同只对签约方有约束力,不能约束「任意第三方」。这就是为什么 OpenRAIL-M 要求下游再分发时必须传递协议文本(后面会细讲)。
场景 C:你下载了 LLaMA 3,做了微调,微调权重里还剩多少是 Meta 的「表达」? 法律上没有定论;工程上通常保守假设「微调权重仍属衍生作品」,受原协议约束。
本文后续章节会反复提醒:模型许可证的法律基础尚未完全确定,工程上应当采取「协议叠加」策略(著作权 + 合同 + 商标 + 服务条款),而不是把全部希望寄托在某一条著作权主张上。
二、开源、开放权重、源可得:三个概念的精确区分
「开源模型」这四个字,在 2023—2024 年被用得极其混乱。Meta 管 LLaMA 叫「open-source」,Mistral 早期坚称自己是「open-weights」,Stability AI 用「open access」,智谱 GLM 用「开源社区协议」。这些词到底什么区别?
2.1 三个概念的定义
开源(Open Source):在 OSI 定义下,必须满足《开源定义》(The Open Source Definition,OSD)的 10 条准则。2024 年 10 月 28 日 OSI 正式发布《开源 AI 定义》(Open Source AI Definition,OSAID)1.0,把 OSD 扩展到 AI 系统。OSAID 要求一个模型同时公开:
- 训练所用的完整源代码(训练、推理、评估);
- 「数据信息」——足以让有相当技能的人复现一个功能等效的模型的训练数据描述,包括来源、筛选、处理步骤;
- 模型权重与关键参数。
并且这三项都要以允许「使用、研究、修改、分享」自由的许可证发布。注意 OSAID 没有要求训练数据本身必须公开——这是一个经过激烈讨论后的妥协,被 Software Freedom Conservancy 等组织批评为「不够严格」。
开放权重(Open Weights):只公开模型权重文件,允许下载、推理,但训练代码、训练数据、训练日志可以不公开。LLaMA、Gemma、Qwen 基模权重基本都是这种状态。
源可得(Source Available):协议可能对使用、商用、再分发有限制(比如 BSL、Commons Clause),但源码/权重可以下载。LLaMA Community License、Gemma Terms of Use 属于这一类——你可以看、可以改,但商用有门槛、有禁用场景。
2.2 OSAID 与主流模型的碰撞
2024 年 10 月 OSAID 发布当天,一个有趣的现象是:大多数被称作「开源」的大模型,都不满足 OSAID 1.0。
| 模型 | 权重协议 | 训练代码 | 训练数据信息 | 是否符合 OSAID 1.0 |
|---|---|---|---|---|
| LLaMA 3.1 | LLaMA 3.1 Community License(自定义) | 部分公开 | 未完整披露 | 否(协议限制 + 数据不透明) |
| Gemma 2 | Gemma Terms of Use(自定义) | 部分公开 | 未完整披露 | 否 |
| Mistral 7B | Apache 2.0 | 推理代码公开 | 未披露 | 否(数据信息不足) |
| Qwen2.5 | Apache 2.0 | 推理代码公开 | 未完整披露 | 否(数据信息不足) |
| DeepSeek-R1 | MIT | 推理代码公开 | 技术报告披露部分管线 | 部分符合 |
| BLOOM | BigScience RAIL | 完整公开 | 完整披露 | 接近符合(协议自由度争议) |
| OLMo 2 (AI2) | Apache 2.0 | 完整公开 | 完整公开(Dolma 数据集) | 符合 |
| Pythia (EleutherAI) | Apache 2.0 | 完整公开 | 完整公开(The Pile) | 符合 |
结论非常直接:真正满足 OSAID 的是 AI2、EleutherAI 这类研究机构发布的模型;商业公司发布的「开源模型」几乎都只是「开放权重」或「源可得」。
2.3 为什么 Meta 坚持 LLaMA 是「开源」
Meta 一直把 LLaMA 称为「open-source」,这在 OSI 看来是误用。Meta 的立场有两点:
- LLaMA Community License 允许几乎所有研究、开发、商业使用(除非你是 7 亿月活以上的巨头),在「实际效果」上接近开源;
- OSI 的定义是 OSI 的,不是法律定义;Meta 没有义务遵守。
这场争论在 2024 年 Q4 很激烈,Linux Foundation 的 OpenMDW(Open Model Definition Working)工作组也在推动自己的定义。工程团队在沟通时,建议避免使用「开源模型」一词表达模糊含义;明确说「Apache 2.0 模型」「LLaMA 协议模型」「OpenRAIL 模型」会减少误会。
三、八类模型许可证逐条拆解
本节把当前主流的八类模型许可证逐一过一遍,每一类给出:一句话判断、条款要点、工程影响、真实案例。
3.1 Apache 2.0 / MIT:宽松派
一句话判断:除了专利条款(Apache)和署名要求(两者都有),几乎没有任何使用、分发、商用限制;对工程团队最友好。
条款要点(Apache 2.0):
- 允许使用、复制、修改、分发、商用、再许可;
- 必须保留版权声明、
LICENSE、NOTICE文件; - 自动获得贡献者的专利授权(§3);
- 专利报复条款(§3):对 Apache 2.0 项目发起专利诉讼的人,自动丧失授权;
- 修改过的文件要加「修改标记」(§4(b));
- 无担保。
条款要点(MIT):
- 允许使用、复制、修改、分发、商用、再许可;
- 必须保留版权声明;
- 没有专利条款(这是重大差异);
- 无担保。
工程影响:
下游可以无条件商用、闭源私有化部署、再许可甚至换协议重发(MIT 与 Apache 2.0 协议互相兼容,向 Apache 2.0 合并无障碍)。对企业微调、商业 SaaS、本地部署都最友好。
真实案例:
- Mistral 7B(2023 年 9 月,Apache 2.0):Mistral 发布的第一个明星模型,直接 Apache 2.0,开放权重 + 开放推理代码,直接把欧洲开放模型的基线抬高。
- Mixtral 8x7B / 8x22B(Apache 2.0):MoE 架构,同样 Apache 2.0;2024 年 4 月 Mixtral 8x22B 发布。
- Qwen 2 / Qwen 2.5(Apache 2.0):阿里通义团队从 2024 年 6 月 Qwen2 开始,大部分权重采用 Apache 2.0(Qwen2-72B 等少数大尺寸早期使用自定义 Tongyi Qianwen License,后续逐步转 Apache 2.0)。Qwen3 系列延续 Apache 2.0。
- DeepSeek-V2 / V3 / R1(MIT):深度求索 2024—2025 年发布的核心模型全部 MIT。DeepSeek-R1 的 MIT 许可证明确「允许蒸馏、允许用输出训练其他模型」,直接引发了 2025 年 1 月「R1-distill」生态爆发。
- Falcon 7B / 40B(先 TII 自定义 → 2023 年 5 月重新授权为 Apache 2.0):TII 一开始用的是带「商用特许权费」的自定义协议,后在社区压力下改为 Apache 2.0。Falcon 180B 采用不同的 TII Falcon License。
- OLMo / OLMo 2(AI2,Apache 2.0):满足 OSAID 的样板。
- Pythia(EleutherAI,Apache 2.0):同上。
从 HuggingFace card 读取协议:
from huggingface_hub import HfApi, ModelCard
def get_license(repo_id: str) -> str:
card = ModelCard.load(repo_id)
return getattr(card.data, "license", None) or "unknown"
for m in ["Qwen/Qwen2.5-7B", "deepseek-ai/DeepSeek-R1",
"mistralai/Mistral-7B-v0.1", "meta-llama/Llama-3.1-8B"]:
print(m, get_license(m))Apache / MIT 的模型会直接返回 apache-2.0 /
mit;LLaMA / Gemma 会返回 llama3.1
/ gemma,提示你需要点击接受单独协议。
3.2 OpenRAIL-M 家族:责任 AI 派
一句话判断:权重可以免费商用,但必须传递一份「禁用场景清单」(Use-Based Restrictions),下游微调者也要把这份清单传下去。
协议谱系:
- RAIL(Responsible AI License):由一个学术 + 产业联盟在 2021 年发起,参见 https://licenses.ai/。
- BigOpen RAIL-M(2022):BigScience 发布 BLOOM 时用,字母 M 表示 Model(另外有 A for Application,D for Data)。
- CreativeML Open RAIL-M(2022):Stability AI 发布 Stable Diffusion 1.x 时用。
- Open RAIL-M(2023 年定型版本):统一版本,IDEFICS、一些图像模型在用。
条款要点(以 BigScience OpenRAIL-M 为例):
- 第 II.1 节:授予「不可撤销、全球、非独占、免版税、可再许可」的许可(只要遵守附件 A);
- 第 IV 节 Distribution and
Redistribution:下游再分发(无论修改与否)必须:
- 包含原协议完整副本;
- 让最终用户看到附件 A 的 Use-Based Restrictions;
- 将 Use-Based Restrictions 作为 enforceable provisions 加入下游自己的协议;
- 第 V 节 Derivatives:微调、蒸馏、量化产生的衍生模型仍受本协议约束;
- 附件 A Use-Based Restrictions:13 条禁用场景(见下节);
- 无担保 + 有限责任;
- 模型卡(Model Card)要求:发布者应提供模型卡,披露已知偏见、限制、预期用途。
工程影响:
- 可以免费商用,包括闭源产品;
- 必须把协议文本和 Use-Based Restrictions 传递给下游;
- 如果你提供 API 服务,你的 ToS 必须把这 13 条禁用场景纳入可执行条款;
- 下游微调者同样要传递——这就是义务的链式传递;
- 如果你违反附件 A,授权自动撤销。
真实案例:
- BLOOM(BigScience,2022 年 7 月):BigScience RAIL-M,首个大规模多语种 LLM;
- Stable Diffusion 1.4 / 1.5 / 2.0 / 2.1(CreativeML Open RAIL-M);
- IDEFICS / IDEFICS2(HuggingFace,OpenRAIL-M);
- RedPajama-INCITE(Together,部分模型采用)。
注意 SDXL 的协议变化:Stability AI 在 2023 年 7 月发布 Stable Diffusion XL(SDXL)时,把协议从 OpenRAIL-M 换成了自己的 Stability AI Non-Commercial License + Stability AI Community License(2024 年),商用必须满足年收入低于 100 万美元的门槛,高于此必须购买 Enterprise License——这已经不是 OpenRAIL-M 了,工程团队必须注意版本差异。
3.3 LLaMA 系列自定义协议:巨头护城河派
一句话判断:对绝大多数公司免费商用开放,但用 LLaMA 输出训练其他模型、以及「巨头用户」有额外限制;不是真正的开源。
协议版本演变:
| 版本 | 发布时间 | 协议名 | 核心特征 |
|---|---|---|---|
| LLaMA 1 | 2023-02 | 仅研究许可 | 禁止商用;靠 Torrent 泄露进入社区 |
| LLaMA 2 | 2023-07 | LLaMA 2 Community License | 允许商用,月活 7 亿门槛;禁用政策(Acceptable Use Policy)挂外链 |
| Code LLaMA | 2023-08 | LLaMA 2 Community License(沿用) | 同上 |
| LLaMA 3 | 2024-04 | LLaMA 3 Community License | 结构与 LLaMA 2 类似;增加「命名要求」(Llama 前缀) |
| LLaMA 3.1 | 2024-07 | LLaMA 3.1 Community License | 新增:用 LLaMA 输出训练其他 LLM 时,衍生模型名称必须以
Llama 开头 |
| LLaMA 3.2 | 2024-09 | LLaMA 3.2 Community License | 对多模态 11B/90B,在欧盟地区用户被排除 |
| LLaMA 3.3 | 2024-12 | LLaMA 3.3 Community License | 延续 3.1 条款 |
7 亿月活门槛原文(LLaMA 2 Community License §2):
If, on the Llama 2 version release date, the monthly active users of the products or services made available by or for Licensee, or Licensee’s affiliates, is greater than 700 million monthly active users in the preceding calendar month, you must request a license from Meta, which Meta may grant to you in its sole discretion, and you are not authorized to exercise any of the rights under this Agreement unless or until Meta otherwise expressly grants you such rights.
关键细节:
- 门槛以模型发布日为时间点判断,不是「任何时候超过」;
- 比较对象是 Licensee 或其关联公司的全体产品/服务的月活之和;
- 达到门槛后,必须向 Meta 申请,Meta 自行决定是否授予——Meta 实际上用这一条把 Google、Apple、ByteDance 等潜在竞争对手锁在门外。
命名与归因要求(LLaMA 3 / 3.1):
- 显示「Built with Llama」字样(UI 可见处);
- 如果你用 LLaMA 的输出(inference output)训练另一个
LLM,该衍生模型名称必须以
Llama开头(LLaMA 3.1 License §1.b.i); - 违反即授权撤销。
工程影响:
- 对几乎所有中国公司、欧美中小公司免费商用;
- 7 亿月活门槛写死,发布时点触发;
- 欧盟多模态使用受限(3.2 版本明确排除欧盟机构用户,出于 AI Act 不确定性);
- 微调、蒸馏、量化产生的衍生模型必须沿用 LLaMA 协议;
- 名字必须带
Llama——这是商标强化条款,不是版权条款。
真实案例:
- Vicuna / Alpaca(2023 年):Stanford、UC Berkeley 在 LLaMA 1 上微调,仅研究用途;
- Code LLaMA-Instruct 衍生模型:社区大量基于 LLaMA 2 做 SFT,只要 MAU 不超门槛,商用合规;
- Meta 与 Apple / Google 的隐性限制:2024 年以来坊间多次传闻,Apple Intelligence、Google Gemini 团队即使想试用 LLaMA,也要单独走 Meta 的 Enterprise License 流程;
- Zuckerberg 2024 年公开信:Meta 明确说「我们这是 open-source」——OSI 反对,但 Meta 坚持。
3.4 Gemma:Google 的自定义 Terms of Use
一句话判断:条款结构类似 LLaMA,允许商用、有禁用政策,但没有 MAU 门槛;多模态和新版本频繁微调条款。
协议名:Gemma Terms of Use(https://ai.google.dev/gemma/terms)
条款要点:
- 不可撤销、全球、非独占、免版税许可;
- 必须遵守 Gemma Prohibited Use Policy(外挂文档);
- 下游再分发必须包含协议副本 + 禁用政策的可访问链接 + 「Gemma is provided under and subject to the Gemma Terms of Use」的文字提示;
- 衍生模型(微调、蒸馏)必须在协议中加入 Gemma Prohibited Use Policy 的可执行等价条款;
- Google 保留出于「法律/法规/政策」原因更新禁用政策的权利——这是一条重要的「活条款」;
- 无 MAU 门槛(这是与 LLaMA 的关键差异);
- 无担保。
禁用政策(Gemma Prohibited Use Policy)涉及:生成 CSAM、暴力极端、未经授权的医疗 / 法律 / 金融建议(在不符合专业审查时)、关键基础设施攻击、特定人群的歧视性系统、故意规避安全机制等。
工程影响:
- 商用免费,私有化部署可;
- 禁用政策会更新,企业要订阅 Google 更新通知;
- 二次分发时要传递禁用政策——工程上这意味着模型卡、API ToS、模型 Gateway 的 policy 检查都要对应更新;
- Gemma 模型名是 Google 的注册商标,衍生模型命名需谨慎。
真实案例:
- Gemma 1 / 1.1(2024 年 2 月、2024 年 4 月);
- Gemma 2(2024 年 6 月,9B、27B);
- CodeGemma / PaliGemma:同一框架;
- Gemma 3(2025 年 3 月发布):延续同一协议。
3.5 Mistral:从 Apache 2.0 到「部分闭源」的漂移
一句话判断:Mistral 的基模一开始全部 Apache 2.0,但从 2024 年起,「旗舰模型」逐渐转向非开放协议;同一品牌下存在多种协议。
协议版本:
- Apache 2.0:Mistral 7B、Mixtral 8x7B、Mixtral 8x22B、Mistral Nemo(与 NVIDIA 合作,2024 年 7 月);
- Mistral Research License(MRL):Mistral Large 2(2024 年 7 月),仅限研究、非商用;商用需要购买 Commercial License;
- Mistral Non-Production License:部分新模型试验性使用;
- 闭源:Mistral Medium / Mistral Large(API-only)。
2024 年的争议:
2024 年 2 月 Mistral 与微软签订战略合作协议,同时把旗舰产品 Mistral Large 设为闭源。社区大量批评「Mistral 偷偷闭源」,Mistral 的回应是:「我们继续开放社区模型(Mistral 7B、Mixtral 系列),但旗舰级别模型需要商业化支撑研究」。
工程影响:
- 挑选 Mistral 模型时,必须核对具体版本的协议;
- Mistral 7B / Mixtral 系列 Apache 2.0 是可靠的长期投资;
- Mistral Large 2 / MRL 模型只能用于研究——很多公司不小心下载用于生产,实际上不合规;
- Mistral Nemo 虽然是 Apache 2.0,但 tokenizer(Tekken)由 Mistral 主导,用之前需要确认 tokenizer 的协议也是 Apache 2.0。
真实案例:
- Mixtral 8x22B 从社区版转 Apache 2.0(2024 年 4 月 10 日):Mistral 最初是 magnet 链接 + 不明协议散播,社区施压后确认 Apache 2.0;
- Codestral(2024 年 5 月):Mistral Non-Production License,禁止生产环境;但 Codestral Mamba(2024 年 7 月)改回 Apache 2.0。
3.6 BigScience OpenRAIL、OpenMDW(2025)与 ML-at-scale 协议
一句话判断:BigScience 系的协议强调责任 AI 传递义务;2025 年 Linux Foundation 的 OpenMDW 尝试做「更中立、更工程化」的定义。
BigScience 系:
- BigScience RAIL License v1.0(BLOOM 专用);
- BigScience BigCode OpenRAIL-M v1(StarCoder、StarCoder2 用)——条款增加:代码类模型的输出商用豁免。
OpenMDW(Open Model Definition and Weights):
Linux Foundation 在 2025 年 6 月宣布的新协议框架,目标是让「权重、模型卡、训练配置」三件套以统一方式发布。当前仍在草案阶段,尚未大规模采用;值得关注的是 OpenMDW 明确:
- 把模型权重视为「受许可证约束的客体」,避免法律定性真空;
- 区分「商用模型协议」和「开源模型协议」两条路径;
- 把模型卡作为协议一部分(Model Card as License Attachment)。
真实案例:
- StarCoder2(ServiceNow + HuggingFace + NVIDIA,2024-02):BigCode OpenRAIL-M;
- SantaCoder(2022-12):BigCode OpenRAIL-M 早期版本。
3.7 Falcon 与 TII:中东派
一句话判断:Falcon 7B/40B Apache 2.0,Falcon 180B 用自定义 TII Falcon License(带使用限制)。
TII Falcon License 要点:
- 允许免费商用;
- 但有 Acceptable Use Policy;
- 某些版本要求商用收入超过特定门槛(具体数字以官方为准)时,需要单独协议;
- 目前 Falcon 7B / 40B 已经彻底转 Apache 2.0。
真实案例:
- Falcon 7B / 40B(TII,2023):先自定义 → 后 Apache 2.0;
- Falcon 180B(2023-09):TII Falcon License 180B,商用条件比小模型严格。
3.8 中国特色协议:Tongyi Qianwen、GLM、Baichuan、Yi、DeepSeek
一句话判断:中国模型厂商 2023—2024 年普遍使用「社区协议」,2024 年以后大多转向 Apache 2.0 / MIT。
Tongyi Qianwen License Agreement(通义千问许可协议):
- 早期 Qwen 72B、Qwen 1.5 部分大尺寸使用;
- 允许免费商用,月活 1 亿门槛(超过需向阿里云申请);
- 禁用政策:禁止危害国家安全、社会公共利益等;
- Qwen 2.5 开始主要采用 Apache 2.0;
- Qwen-Image、部分视觉模型保留自定义协议。
GLM License(智谱):
- ChatGLM、ChatGLM2 早期社区协议;
- ChatGLM3、GLM-4-9B 转向更开放的协议;
- 允许免费学术研究;商用需登记或申请;
- 具体条款请以 HuggingFace 仓库与 modelscope 仓库当期为准。
Yi License(零一万物):
- Yi-6B / Yi-34B 使用 Yi License;
- 允许免费商用(无 MAU 门槛,但要求下游填写使用登记表);
- 禁用政策条款丰富;
- 2024 年后部分模型转 Apache 2.0。
Baichuan License:
- Baichuan 2 早期社区协议;
- 允许商用,需登记;
- 新版逐步转 Apache 2.0。
DeepSeek Model License:
- DeepSeek LLM 7B / 67B 早期使用;
- DeepSeek-Coder、DeepSeek-V2、V3、R1 转向 MIT;
- DeepSeek-R1 的 MIT 声明中明确:「允许用于生成合成数据、允许蒸馏、允许用输出训练其他模型」,这直接引爆了 2025 年 1—2 月的 R1-distill 生态。
中国模型协议演化规律:
- 2023 年:多数采用自定义「社区协议」,商用需申请;
- 2024 年:主流厂商(阿里、深度求索、零一万物)逐步转 Apache 2.0 / MIT,对标国际主流;
- 2025 年:Apache 2.0 / MIT 成为中国旗舰开源模型的标配;部分专用模型(视觉生成、特定垂域)仍保留自定义协议。
这个转向的背后原因很现实:社区协议的法律效力在跨境场景下存疑,而 Apache 2.0 / MIT 有全球司法认可度。企业想让自己的模型被海外开发者、云厂商大规模使用,最简单的办法就是选 Apache 2.0。
四、条款要点纵向比较表
下表把主流模型协议在工程团队最关心的 10 个维度上横向对比。所有信息以本文撰写时官方发布文本为准;条款可能随版本变化,生产环境使用前请复核。
| 维度 | Apache 2.0 | MIT | OpenRAIL-M | LLaMA 3.1 | Gemma | Mistral MRL | Qwen License | DeepSeek ML |
|---|---|---|---|---|---|---|---|---|
| 商用 | 可 | 可 | 可 | 可(有 MAU 门槛) | 可 | 仅研究 | 可(部分有 MAU 门槛) | 可 |
| 再分发 | 可 | 可 | 可(须传协议 + UBR) | 可(须命名带 Llama) | 可(须传禁用政策) | 受限 | 可(须保留协议) | 可 |
| 修改 / 微调 | 可 | 可 | 可(衍生继承协议) | 可(衍生继承) | 可(衍生继承) | 研究目的可 | 可 | 可 |
| 衍生模型协议继承 | 无 | 无 | 强制继承 UBR | 强制继承 + 命名 | 强制继承禁用政策 | 强制 | 部分继承 | 不强制 |
| 禁用场景 | 无 | 无 | 附件 A 13 条 | AUP 外链 | Prohibited Use Policy | 有 | 有 | 少量 |
| 专利授权 | 有(§3) | 无 | 有 | 有 | 有 | 有 | 有 | 有 |
| 商标授权 | 无(§6) | 无 | 无 | 有限:强制 Llama 前缀 | 有限:Gemma 是商标 | 有限 | 有限 | 有限 |
| MAU 商用门槛 | 无 | 无 | 无 | 7 亿月活 | 无 | 无 | 早期有(1 亿) | 无 |
| 下游披露要求 | NOTICE 文件 | 版权声明 | 模型卡 + UBR | “Built with Llama” + 模型卡 | 禁用政策链接 + 归因 | 归因 | 归因 | 归因 |
| 出口管制 | 无 | 无 | 无 | AUP 含 | 隐含(Google 合规) | 隐含 | 中国法域适用 | 中国法域适用 |
几个关键观察:
- 只有 OpenRAIL-M 家族的「禁用场景传递」是协议文本硬约束。LLaMA / Gemma 也有禁用政策,但 OpenRAIL-M 把它写成「下游分发必须加入可执行条款」——这是最严的责任 AI 落地方式。
- 只有 LLaMA 有硬性 MAU 门槛写在协议正文。Qwen 早期版本也有类似条款,但 Qwen2.5 以后已转 Apache 2.0。
- Apache 2.0 是唯一「专利条款 + 无其他限制」的协议。这是它在工程团队中最受欢迎的原因。
- 商标约束(名字必须含某前缀)是 LLaMA 3.1 之后的新特色,标志模型协议从「版权约束」向「商标 + 合同约束」迁移。
五、OpenRAIL-M 的 Use-Based Restrictions 工程化
OpenRAIL-M 最独特的机制是使用场景限制(Use-Based Restrictions,UBR)。本节把这 13 条落地到实际工程系统。
5.1 附件 A 的 13 条
以 BigScience OpenRAIL-M 附件 A 为基础,Use-Based Restrictions 涵盖(原文为英文,此处中文摘要以工程落地为目的):
- 违反任何适用法律或法规的方式使用;
- 以造成或促成未成年人受伤害的方式使用;
- 生成或传播经过验证的虚假信息,且有伤害意图;
- 生成或传播涉及他人的个人身份信息(PII),用于伤害该个人;
- 诽谤、贬低或以其他方式骚扰他人;
- 在没有明确法律权利的情况下,用于或代替完全自动化的决策,对个人法律权利产生不利影响;
- 基于在线或离线社会行为或已知 / 预测个人或人格特征,对自然人进行歧视或伤害;
- 利用特定人群(年龄、残疾、社会 / 经济情况)的脆弱性,实质性扭曲行为并致身心伤害;
- 基于受法律保护的特征进行歧视;
- 用于提供医疗建议、医疗结果解释——除非符合法律合规;
- 用于生成或传播用于司法、执法、移民或庇护程序的信息,且产生不准确结果;
- 用于预测犯罪或犯罪嫌疑人的概率(predictive policing);
- 用于未经授权 / 违反任何适用法规的生物识别类别化系统。
OpenRAIL-M 规定,发布者可以增加限制条款,但不能删除已有的 13 条。也就是说,13 条是「禁用基线」,衍生协议可以更严但不能更松。
5.2 在 API Gateway 层的落地
如果你提供 OpenRAIL-M 协议模型的推理服务(无论是对外还是对内),工程上至少要做以下三层:
第一层:服务条款(ToS)硬编码
把 UBR 13 条写入你的 API Terms of Service,明确「用户在调用本 API 时承诺不用于上述场景」。ToS 点击同意是合同法层面的约束。
第二层:Gateway 侧的输入 / 输出分类器
对高风险场景做分类器拦截。典型做法:
# pseudo-code: gateway rail filter
class RailFilter:
def __init__(self, policies: list[str]):
self.classifier = load_policy_classifier(policies)
def check_input(self, prompt: str) -> dict:
scores = self.classifier.score(prompt)
for policy in self.policies:
if scores[policy] > self.threshold[policy]:
return {"allow": False, "policy": policy, "score": scores[policy]}
return {"allow": True}
def check_output(self, text: str) -> dict:
return self.check_input(text)
# in request handler
pre = rail.check_input(req.prompt)
if not pre["allow"]:
audit_log(user=req.user, policy=pre["policy"], stage="input")
return 451, {"error": "use-based-restriction", "policy": pre["policy"]}
resp = llm.generate(req.prompt)
post = rail.check_output(resp)
if not post["allow"]:
audit_log(user=req.user, policy=post["policy"], stage="output")
return 451, {"error": "use-based-restriction", "policy": post["policy"]}
return 200, {"text": resp}分类器本身可以是一个小模型(比如 Llama Guard、Granite Guardian、ShieldGemma 等),也可以是规则式拦截。重点是拦截事件要记录审计日志,这是事后合规可追溯的基础。
第三层:事后审计与事故响应
- 保留 N 天的请求日志(在合规和隐私之间平衡);
- 定期跑误用检测(比如统计某用户是否高频触发 UBR);
- 对严重事件要有响应流程(封禁、上报、对接执法)。
5.3 模型卡(Model Card)的合规要求
OpenRAIL-M 要求发布者提供 Model Card,披露至少以下维度(细节按协议条款):
- 模型架构、参数量、上下文窗口;
- 训练数据性质(不强制完整公开,但要说明领域、规模、已知偏见);
- 预期使用场景(intended uses);
- 超范围使用(out-of-scope uses)——这里与 UBR 呼应;
- 已知限制与偏见;
- 评测结果(benchmark、fairness、robustness);
- 伦理考虑;
- 联系方式。
HuggingFace 的 README.md frontmatter + Model
Card 章节已经成为行业标准,Meta、Google、BigScience
都在用:
---
license: bigscience-openrail-m
tags:
- text-generation
model-index:
- name: example-model
results: []
intended_use: "研究与对话生成"
out_of_scope_use:
- "医疗诊断"
- "司法判决辅助"
- "未成年人单独使用"
---5.4 与 Llama Guard / ShieldGemma 的组合
一个常见的工程简化做法:同一个 Guard 模型同时服务多个协议。
- Llama Guard 3 / 4(LLaMA 协议):负责 LLaMA AUP 对应条款;
- ShieldGemma(Gemma 协议):负责 Gemma 禁用政策;
- Granite Guardian(Apache 2.0):开箱即用,适合 OpenRAIL-M UBR 翻译为分类任务。
工程落地时把每个 Guard 输出的 label
映射到协议要求的具体条款。比如 Granite Guardian 输出
harm、social_bias、violence、sexual_content
等 label,你在 gateway 侧配置「哪些 label 对应 OpenRAIL-M
附件 A 的哪条」——这个映射表是下游 policy engine
的核心配置,会随协议版本更新。
一个典型的三层协议-Guard 对应表:
| 协议 | Guard 模型 | 触发 label → 协议条款映射 | 拦截动作 |
|---|---|---|---|
| OpenRAIL-M | Granite Guardian | violence → 附件 A §1,
social_bias → §7/§9 |
返回 451 + 审计 |
| LLaMA 3.1 | Llama Guard 3 | S1-S14 分类 → AUP 对应段落 |
拒绝 + 记录 |
| Gemma | ShieldGemma | dangerous/harassment/hate/sexual
→ Gemma PUP |
降级改写 或 拒绝 |
这一层配置应当随协议更新而 bump 版本,并在模型卡中注明「本服务执行 OpenRAIL-M 附件 A v1.0 + LLaMA AUP 2024-07 版」这类可追溯的时间戳。
5.5 下游微调者的义务传递
这是 OpenRAIL-M 工程落地里最容易忽视的一点:你微调 BLOOM / StarCoder 得到的衍生模型,上传 HF 时必须保留 OpenRAIL-M 协议 + 附件 A。
常见违规姿势:
- 把微调模型标成
license: apache-2.0——违反,衍生模型不能降协议; - 把 Use-Based Restrictions 删掉重写 ——违反,13 条是基线;
- 不写模型卡直接上传 ——违反,协议要求最低限度的披露;
- 把基础模型信息隐去 ——违反,衍生模型应标明来源。
HuggingFace 在 2024 年以后加强了 license 元数据校验,但仍无法自动检测协议文本篡改。工程团队在内部发布前,应该用自动化脚本比对协议文件与基模协议是否一致。
六、四个工程场景的决策清单
本节把前面的条款拆解,映射到工程团队最常见的四个场景。
6.1 场景 A:自研基模,选 Apache 2.0 还是 OpenRAIL-M
决策维度:
- 你的模型训练数据里有没有需要特别「负责」的部分(医疗、儿童、敏感身份信息)?
- 你想不想让下游必须承担伦理责任?
- 你的团队有没有能力维护 Use-Based Restrictions 的执行?
一般建议:
| 情形 | 推荐 |
|---|---|
| 通用基模,面向开发者生态 | Apache 2.0(最大化采纳) |
| 面向特定敏感领域(医疗、法律) | OpenRAIL-M(强化禁用场景) |
| 视觉生成 / 声音生成模型 | CreativeML Open RAIL-M 或自定义 + UBR |
| 企业 + 想保留商业化空间 | 双协议:开源版 + Commercial License(Mistral、Stability 模式) |
| 研究性发布,不希望商业化 | CC BY-NC、Mistral Research License |
一个朴素的判断:如果你希望你的模型像
transformers 一样被海量 clone,选 Apache
2.0;如果你更在意「这个模型不被滥用」,选
OpenRAIL-M。
6.2 场景 B:微调商用,从 LLaMA / Gemma / Qwen 出发
核心问题:
- 你所属实体的 MAU 是否超过门槛?
- 下游分发(app、SaaS、on-prem)怎么满足归因要求?
- 微调权重上传 HF 还是内部私有化?
LLaMA 3.1 微调商用工作流:
- 准入核查:MAU < 7 亿?(绝大多数公司满足);欧盟机构用户?(3.2 多模态受限);
- 命名检查:衍生模型名带
Llama前缀(比如Llama-3.1-MedChat-v1); - 归因展示:App 底部 / 模型卡 / 文档中显著标注「Built with Llama」;
- 模型卡完备:保留 LLaMA 3.1 License 链接,说明基模、微调数据、评测;
- ToS 同步更新:把 LLaMA AUP 条款纳入下游用户协议;
- 上传
HF:
license: llama3.1,附LICENSE.txt副本。
阿里云 ModelScope 的托管模式(有代表性):
ModelScope 把 Qwen、LLaMA、百川等多协议模型托管在一个平台。当用户下载这类模型时,平台会弹出协议接受 UI,用户必须勾选「我已阅读并同意」。这一层是合同法强化:即便底层著作权不成立,合同关系也已建立。工程团队自己在企业内部搭建模型仓库(MLOps 平台)时,也应该复用这一思路——给下载加 ToS gate。
6.3 场景 C:内部使用与私有化部署
「内部使用」场景下,大多数协议的约束都会变弱:
- Apache 2.0 / MIT:基本无额外义务;
- OpenRAIL-M:UBR 仍然适用,但没有再分发的传递义务;
- LLaMA:MAU 门槛还要看(即使是内部系统也算月活;一般员工数远不达门槛);
- Gemma:内部使用不触发再分发,但禁用政策仍适用。
私有化部署给客户算不算分发?——算。你交付给客户的容器镜像、on-prem 安装包,已经离开你的控制范围,是明确的 convey / distribution。你必须履行所有再分发义务。
工程做法:
- 把协议文件随部署包一起分发(
/opt/licenses/下放所有模型协议文本); - 在管理后台展示 license overview;
- 微调权重若要一起交付,对 LLaMA / Gemma / OpenRAIL 系列要显式告诉客户「你也要遵守这些条款」;
- 合同中加入 back-to-back 条款,把原协议义务层层传递。
6.4 场景 D:二次分发(merge / 量化 / 蒸馏)的许可溯源
这是近年最容易出事的场景。
量化版本:权重的数值表示变化(FP16 → INT8 / INT4),但语义权重一一对应——公认为衍生作品,继承原协议。上传 HF 时要在模型卡中注明量化来源与原协议。
蒸馏版本:学生模型用老师模型的输出训练——协议的允许与否,要看原协议:
- DeepSeek-R1(MIT):明确允许蒸馏;
- LLaMA 3.1:允许但衍生模型必须
Llama前缀 + 保留协议; - OpenAI API 输出:OpenAI Terms of Use 明确禁止用 API 输出训练与之竞争的模型——这是为什么 R1 发布后 OpenAI 只能抱怨而无法起诉 DeepSeek,因为 DeepSeek 没有用 OpenAI API。
Merge 模型:把两个或多个模型的权重加权合并(task arithmetic、TIES、DARE、SLERP)——许可证必须同时兼容:
- Apache 2.0 + MIT:兼容,按 Apache 2.0 发布;
- Apache 2.0 + LLaMA 3.1:冲突,因 LLaMA 有命名限制与 MAU 限制,无法降到 Apache 2.0;只能按 LLaMA 3.1 + Apache 2.0 叠加;
- OpenRAIL-M + Apache 2.0:OpenRAIL-M 的 UBR 会「污染」整个 merge 结果,必须以 OpenRAIL-M 再分发;
- 两个 OpenRAIL-M 变体:UBR 取并集(必须同时遵守两份附件 A)。
HuggingFace 的 model tree / base_model 元数据是溯源的官方机制。上传 merge / 量化模型时,frontmatter 应该写:
---
base_model:
- meta-llama/Llama-3.1-8B-Instruct
- Qwen/Qwen2.5-7B-Instruct
tags:
- merge
license: other
license_name: llama3.1-and-apache-2.0
license_link: LICENSE.txt
---这样 HF 的 UI 会显示一个 model tree,点击可以追溯全部祖先。工程团队在选用 merge 模型进生产前,务必沿树追溯每个叶子的协议。
七、微调模型的许可继承
微调是大模型时代最常见的工程操作,也是协议继承最复杂的场景。
7.1 全量微调:无争议继承
Full-parameter SFT / DPO 产生的权重是对原权重的直接修改,无争议地构成衍生作品,继承原协议。
7.2 QLoRA / LoRA:adapter 权重是否衍生
LoRA / QLoRA 把微调参数隔离在 low-rank adapter 中,原始权重不动。严格从二进制角度看,adapter 文件本身不包含原权重的拷贝。但:
- 功能上:adapter 脱离基模无法使用;
- 法律上:主流观点仍认为「adapter + 基模」整体构成衍生作品;发布 adapter 时,应标明基模并保留基模协议;
- 实践中:HuggingFace 上传 LoRA adapter
时通常声明
base_model:元数据,license 随基模。
具体条款:
- LLaMA 3.1 License §1.b.i 明确提到「衍生模型」的命名义务,adapter 如果以 LLaMA 为 base 也要沿用;
- OpenRAIL-M §V 的「Derivatives」定义宽泛,覆盖 adapter 场景;
- Apache 2.0 / MIT:无特殊要求,保留署名即可。
7.3 合并两个不同许可证模型的冲突
合并(merge)操作把多个基模的权重按某种运算合并。此时权重空间同时包含多份基模的「表达」,协议继承采取「并集」原则:
- 任何一个基模协议禁止的行为,merge 模型也禁止;
- 任何一个基模要求的义务,merge 模型也要履行;
- 协议不兼容(比如一个是 CC BY-NC、一个是 Apache 2.0)时,merge 模型不可发布或必须按最严格的协议发布。
工程上:不要 merge 许可证不兼容的模型。典型不兼容案例:
- Apache 2.0 模型 + Mistral Research License 模型 → 只能 research 用;
- LLaMA + Qwen(旧 Tongyi Qianwen License)→ 两个 MAU 门槛同时适用;
- CC BY-NC 模型 + 任何商用允许模型 → 整体变为不可商用。
7.4 HuggingFace model tree 与 tag 机制
HuggingFace 在 2023—2024 年逐步加强模型溯源机制:
base_model:字段:列出直接基模;base_model_relation:字段:adapter/finetune/merge/quantized/distilled;- model tree UI:从当前模型向上追溯到根基模;
- 下游搜索:可以查某个基模有多少 fine-tune。
工程团队建立内部模型仓库时,也应该复制这一机制:
CREATE TABLE model_registry (
model_id TEXT PRIMARY KEY,
base_models JSON, -- ["meta-llama/Llama-3.1-8B"]
relation TEXT, -- finetune | merge | quantized | distilled | adapter
license TEXT,
license_file TEXT, -- 本地路径或 URL
use_based JSON, -- UBR 清单
registered TIMESTAMP
);有了这张表,合规审计只要一句 SQL 就能找出「所有基于 LLaMA 的模型」「所有受 UBR 约束的模型」。
八、真实事件复盘
本节挑选 2023—2025 年有代表性的真实事件,看协议在真实商业场景下的执行情况。
8.1 Stability AI SDXL 协议变更
事件:2023 年 7 月 Stability AI 发布 SDXL 1.0,初期采用 CreativeML Open RAIL++-M(较 SD 1.x 略有增强的 OpenRAIL-M 变体);2024 年 Stability AI 财务危机,推出 Stability AI Community License(年收入 < 100 万美元可免费商用,高于需购买 Enterprise License),把 SDXL、SD3 纳入其中。
工程影响:
- 下游已经基于 SDXL 做商用的公司需要重新评估;
- 部分社区 fork(LCM-LoRA、ControlNet 等)继续在原 OpenRAIL++ 条款下维护;
- 这是一个「协议单向升级」的典型——Stability AI 对新版本定更严的协议,旧版本继续按旧协议授权。
教训:下载权重时要同时下载当期协议文本。如果你基于某个日期的 SDXL 做了商用,你的授权就是那一天的协议文本,后续升级不自动适用。
8.2 Mistral 被指责「偷偷闭源」
事件:2024 年 2 月 Mistral 与微软合作后,旗舰 Mistral Large 闭源。社区(尤其是欧洲开源社区)激烈批评。Mistral 澄清:Mistral 7B、Mixtral 系列仍 Apache 2.0。
工程影响:
- 一个品牌下不同模型不同协议,工程选型必须按模型粒度审查;
- 「开源承诺」可能随时间变化,企业战略优先级会倒逼协议收紧;
- 给自研基模团队的启示:协议一旦发出就很难回收——Mistral 的 Mixtral 8x22B 已经是 Apache 2.0,想「收回」在法律上几乎不可能。
8.3 Databricks DBRX 条款
事件:Databricks 在 2024 年 3 月发布 DBRX(132B MoE),协议名 Databricks Open Model License。
条款特点:
- 允许商用;
- MAU 7 亿门槛(显然参考 LLaMA);
- Acceptable Use Policy;
- 衍生作品要保留归因与协议。
工程影响:
- 这是一个「LLaMA-style」协议的新样本,说明 MAU 门槛模式被大厂广泛复用;
- 衍生模型在 HF 上需要标
license: other+license_name: databricks-open-model-license。
8.4 Meta LLaMA 对「商用超 7 亿」条款的实际执行
Meta 很少公开执行过这一条款。已知的案例:
- 2024 年关于 Apple 合作的传闻:Apple Intelligence 早期据传想用 LLaMA 基础做微调,最终 Apple 自研;是否涉及 MAU 门槛不公开;
- 欧盟 AI Act 导致 LLaMA 3.2 多模态排除欧盟机构:这不是门槛执行,而是 Meta 主动规避欧盟 AI Act 合规不确定性,单方面缩小授权范围;
- Google Gemini Nano 未用 LLaMA:明显规避。
教训:MAU 门槛的实际价值不是「收费」,而是「排除竞争对手」。它的威慑作用比实际执行更重要。
8.5 DeepSeek-R1 的 MIT 与合成数据生态
事件:2025 年 1 月 20 日,DeepSeek 以 MIT 发布 R1,显式允许蒸馏、允许用输出训练其他模型。
连锁反应:
- 一周内,HF 上出现数十个 R1-distill 版本;
- 阿里、字节等公司跟进发布「蒸馏版本」;
- OpenAI 公开抱怨「DeepSeek 可能用 ChatGPT 输出做训练」,但无法证明;
- MIT 成为 2025 年中国基模厂商的新默认选择。
教训:协议选择就是生态战略。DeepSeek 选 MIT 不是偶然,是在 LLaMA 商标限制下,用最松的协议抢占蒸馏生态。
8.6 Tongyi Qianwen License 的演化
通义团队在协议问题上的轨迹也值得复盘:
- 2023 年 8 月:Qwen-7B 在 ModelScope 发布,早期附《通义千问许可协议》,商用需登记;
- 2023 年末 / 2024 年初:Qwen-72B、Qwen-14B 明确月活 1 亿的商用门槛;
- 2024 年 6 月:Qwen2 系列整体转 Apache 2.0,只有极少数超大模型保留自定义协议;
- 2024 年 9 月:Qwen2.5 全系 Apache 2.0;
- 2025 年起:Qwen3 系列延续 Apache 2.0。
协议放宽的商业逻辑:云厂商(阿里云 PAI / 百炼平台)通过托管服务变现,权重本身的协议对企业战略影响已经有限;Apache 2.0 换来全球开发者采纳,长期 ROI 更高。
8.7 Meta LLaMA 3.2 的欧盟排除
2024 年 9 月 Meta 发布 LLaMA 3.2 多模态(11B / 90B)时,单方面在协议中排除欧盟机构用户与欧盟居民,原因是 Meta 对欧盟 AI Act 的合规成本评估不确定。这一做法在欧盟开源社区引起强烈反弹。
工程影响:
- 欧盟开发者若使用 LLaMA 3.2 视觉模型,存在协议合规风险;
- 欧盟云服务商(如 OVH、Scaleway)在提供 LLaMA 3.2 推理服务时额外小心;
- 这一事件也推动了欧盟本土模型(Mistral、Aleph Alpha)的需求增长。
教训:协议可以单方面对地理区域做裁剪;企业在选用某个基模时,要确认当期协议对你所在司法区的可用性。
九、决策树:从零开始选模型许可证
下面这个决策树可以帮你快速定位合适的协议。
flowchart TD
A[我要发布一个模型] --> B{是基模还是微调?}
B -->|基模| C{是否希望最大化生态采纳?}
B -->|微调| M{基模是什么协议?}
C -->|是| D{是否有强烈的伦理责任诉求?}
C -->|否 想商业化| E{想不想同时开放研究版?}
D -->|无| F[Apache 2.0 / MIT]
D -->|有| G[OpenRAIL-M 或 BigCode OpenRAIL-M]
E -->|想| H[双协议: 社区版 + Commercial License]
E -->|不想| I[完全闭源 + API]
M -->|Apache 2.0 / MIT| N[衍生可按原协议 或 更严]
M -->|LLaMA 3.x| O[必须保留 LLaMA 协议<br/>名字带 Llama<br/>MAU 门槛]
M -->|Gemma| P[必须保留 Gemma 协议<br/>传递禁用政策]
M -->|OpenRAIL-M| Q[必须保留协议<br/>传递 UBR 13 条]
M -->|Mistral MRL| R[仅研究 不能商用]
F --> Z[发布]
G --> Z
H --> Z
I --> Z
N --> Z
O --> Z
P --> Z
Q --> Z
R --> Z
style F fill:#3fb950,stroke:#2d333b,color:#2d333b
style G fill:#a371f7,stroke:#2d333b,color:#ffffff
style H fill:#388bfd,stroke:#2d333b,color:#ffffff
style I fill:#f85149,stroke:#2d333b,color:#ffffff
style N fill:#3fb950,stroke:#2d333b,color:#2d333b
style O fill:#f0883e,stroke:#2d333b,color:#2d333b
style P fill:#f0883e,stroke:#2d333b,color:#2d333b
style Q fill:#a371f7,stroke:#2d333b,color:#ffffff
style R fill:#f85149,stroke:#2d333b,color:#ffffff
用法:
- 发布者沿树向下走,到叶节点就是推荐协议;
- 微调者从基模协议入手,读清楚继承义务;
- 商业产品部署方重点关注 O / P / Q / R 四个叶子。
十、license-check 自动化脚本
最后给一段可以直接嵌入 CI 的脚本,检测项目所使用的所有模型是否符合内部白名单。
#!/usr/bin/env python3
# ai-license-check.py
# 扫描 HuggingFace 缓存与 YAML 配置,列出所有用到的模型与协议。
from pathlib import Path
from huggingface_hub import ModelCard, HfApi
import yaml, sys
WHITELIST = {
"apache-2.0", "mit", "bsd-2-clause", "bsd-3-clause",
"bigscience-openrail-m", "openrail", "creativeml-openrail-m",
}
# 有限放行:需要走合规流程
REQUIRES_REVIEW = {
"llama3.1", "llama3.2", "llama3.3", "llama3",
"gemma", "bigcode-openrail-m", "other",
}
def check_model(repo_id: str) -> tuple[str, str]:
try:
card = ModelCard.load(repo_id)
lic = (getattr(card.data, "license", None) or "").lower()
lic_name = (getattr(card.data, "license_name", None) or "").lower()
tag = lic or lic_name or "unknown"
except Exception as e:
tag = f"error:{e.__class__.__name__}"
if tag in WHITELIST:
return "pass", tag
if tag in REQUIRES_REVIEW:
return "review", tag
return "block", tag
def main(config: str):
cfg = yaml.safe_load(Path(config).read_text())
models = cfg.get("models", [])
fail = 0
for m in models:
status, lic = check_model(m)
print(f"{status:7s} {m:50s} {lic}")
if status == "block":
fail += 1
sys.exit(1 if fail else 0)
if __name__ == "__main__":
main(sys.argv[1])配套 models.yaml:
models:
- Qwen/Qwen2.5-7B-Instruct
- deepseek-ai/DeepSeek-R1
- meta-llama/Llama-3.1-8B-Instruct
- google/gemma-2-9b-it
- mistralai/Mistral-7B-v0.1
- bigscience/bloom-7b1把它挂到 CI 的每次合并请求上,加一个审批节点:状态为
review 的模型必须由法务 / OSPO 签字,状态为
block 的直接拒绝。配合 SCA、SBOM
与软件成分分析中的 ML-BOM
机制,可以把模型合规纳入与软件成分一致的流水线。
十一、与本系列其他文章的交叉引用
- 开源许可证全景:宽松、弱 Copyleft、强 Copyleft、网络 Copyleft——本文的底座,理解「什么是开源」
- MIT、BSD、Apache 2.0 的真实区别——本文 Apache 2.0 一节的详细版
- AGPL、SSPL、BSL:反云许可证——理解为什么大厂会倾向「自定义协议」
- 文档、数据、模型的许可:CC、ODbL、OpenRAIL、LLaMA 协议——本文的前置全景,读完这篇再来读本文
- SCA、SBOM 与软件成分分析——ML-BOM 与模型协议审计
- 企业开源办公室(OSPO)建设——模型协议审批的组织与流程
- 出海合规:ECCN、实体清单与美国出口管制——LLaMA 欧盟限制、AI 出口管制
- 开源许可证实操手册:从选型到发布——协议选型通用方法论
- 闭源项目如何选择开源依赖:公司内部合规实操——闭源产品选模型的扩展读物
- AI 训练数据的版权:爬虫、合理使用、数据污染——模型协议的上游(数据协议)
- 中国 AIGC 司法案例集——下游(司法案例与模型使用风险)
十二、参考资料
许可证官方文本
- Apache 2.0:https://www.apache.org/licenses/LICENSE-2.0
- MIT:https://opensource.org/license/mit
- BigScience OpenRAIL-M:https://bigscience.huggingface.co/blog/the-bigscience-rail-license
- CreativeML Open RAIL-M:https://huggingface.co/spaces/CompVis/stable-diffusion-license
- RAIL Initiative:https://licenses.ai/
- LLaMA 2 License:https://ai.meta.com/llama/license/
- LLaMA 3 License:https://llama.meta.com/llama3/license/
- LLaMA 3.1 License:https://llama.meta.com/llama3_1/license/
- LLaMA Acceptable Use Policy:https://llama.meta.com/llama3_1/use-policy/
- Gemma Terms of Use:https://ai.google.dev/gemma/terms
- Gemma Prohibited Use Policy:https://ai.google.dev/gemma/prohibited_use_policy
- Mistral Research License:https://mistral.ai/licenses/MRL-0.1.md
- Stability AI Community License:https://stability.ai/community-license-agreement
- Databricks Open Model License:https://www.databricks.com/legal/open-model-license
- TII Falcon License:https://falconllm.tii.ae/
定义与标准
- OSI Open Source Definition:https://opensource.org/osd
- OSI Open Source AI Definition 1.0(2024-10-28):https://opensource.org/ai/open-source-ai-definition
- Linux Foundation OpenMDW:https://github.com/lfai/model-openness-framework
- HuggingFace License 分类:https://huggingface.co/docs/hub/repositories-licenses
- HuggingFace Model Cards:https://huggingface.co/docs/hub/model-cards
- CycloneDX ML-BOM:https://cyclonedx.org/capabilities/mlbom/
- SPDX 3.0 AI Profile:https://spdx.dev/use/specifications/
法律与政策
- Feist Publications, Inc. v. Rural Telephone Service Co., 499 U.S. 340 (1991)
- Thaler v. Perlmutter, 1:22-cv-01564 (D.D.C. 2023-08-18)
- EU Database Directive 96/9/EC
- EU AI Act (Regulation (EU) 2024/1689)
- USCO Report on Copyright and AI (2024—2025)
模型页面(可用于溯源)
- Qwen 模型列表:https://huggingface.co/Qwen
- DeepSeek 模型列表:https://huggingface.co/deepseek-ai
- Meta LLaMA 模型列表:https://huggingface.co/meta-llama
- Google Gemma 模型列表:https://huggingface.co/google
- Mistral AI 模型列表:https://huggingface.co/mistralai
- BigScience BLOOM:https://huggingface.co/bigscience/bloom
- Allen AI OLMo:https://huggingface.co/allenai
- EleutherAI Pythia:https://huggingface.co/EleutherAI
报告与分析
- Mozilla, Accelerating Progress Toward Trustworthy AI, 2024
- Stanford HAI, Foundation Model Transparency Index, 2024
- Linux Foundation, Model Openness Framework, 2024
- Software Freedom Conservancy, Critique of OSAID 1.0, 2024
本文为工程参考,不构成法律意见。涉及具体法律风险请咨询专业法律顾问。
上一篇:AI 训练数据的版权
下一篇:中国 AIGC 司法案例集
同主题继续阅读
把当前热点继续串成多页阅读,而不是停在单篇消费。
【开源许可与版权工程】文档、数据、模型的许可:CC、ODbL、OpenRAIL、LLaMA 协议
系统梳理文档(CC 家族)、数据库(ODbL/PDDL)与 AI 模型(OpenRAIL、LLaMA、Mistral、Qwen、DeepSeek)的许可框架;OSI 2024 年开源 AI 定义(OSAID 1.0);以及书生·浦语、智源、百川、通义千问、DeepSeek 在中国的协议演变。
【开源许可与版权工程】开源世界全景:从 GNU 到大模型的四十年
一篇写给中国工程团队的开源世界地图:从 1983 年 Richard Stallman 发起 GNU 项目、1998 年 OSI 成立、2018 年 MongoDB 更改 SSPL,到 2020 年开放原子开源基金会成立、再到 2024 年大模型时代的 OpenRAIL 与 LLaMA 许可,把四十年的关键事件、基金会、协议演进和中国线索串成一张可直接指导选型的全景图。
【开源许可与版权工程】专利授权与商标:Apache 2.0、GPLv3 与「兼容性」陷阱
深入解析开源许可证中的专利授权条款与商标政策:Apache 2.0 §3、GPLv3 §11、Microsoft-Novell 事件、Firefox/IceWeasel、Rocky Linux、红旗 Linux、NPE 专利流氓以及 GPLv2 与 Apache 2.0 的兼容性陷阱。
【开源许可与版权工程】闭源项目如何选择开源依赖:公司内部合规实操
面向做闭源/商业产品的团队:逐一拆解 MIT、LGPL、GPL、AGPL、SSPL、BSL 在 SaaS、私有化部署、移动 App、嵌入式固件等形态下的许可边界,给出三级名单模板、CI 扫描配置、SBOM 存证方案与出海补充要求。