“不用旧瓶装新酒”:模型开源生态的认知——基于美国NTIA公共咨询意见的分析

发布于: 雪球转发:0回复:0喜欢:0

作者:彭靖芷 傅宏宇 袁媛

编者按:

● 在人工智能迅猛发展的浪潮中,模型开源作为推动技术普惠与创新的关键力量,正受到各方高度关注。近期,美国国家电信和信息管理局(NTIA)发起公共咨询,聚焦于“开放式基础模型”的治理,力图基于利益平衡原则探索针对模型开源的独立政策。我们全面梳理了从科技巨头到开源社区、从行业协会到非营利组织的333份意见,总结了美国在开源理念和生态建设、风险识别和安全评估、负责任技术能力以及政府监管角色和定位等重点问题上各个方面的前沿观点与产业实践。

模型开源生态在模型落地实践之前充当了“试验田”,让更多的人能够在开源体系中“摸着石头过河”,了解技术特征和应用特点,相互评价、互相监督,从而以最小的成本、最短的路径、最优的方案穿越不确定性的森林。对于开源生态的理解需要摒弃“开闭源二分”的对立思维, 从理念和能力两个角度理解模型生态构建的关键要素,明确模型开源的定义和内涵,界定模型开源生态体系的组成和特征,为回答模型开源相关问题、正确理解模型开源的价值、对模型开源进行科学治理提供客观的认识基础。

近期,号称最强开源模型 LLaMA 3 的发布,将模型开源推上更高的讨论热点。随着人工智能技术的快速发展,以及大模型技术在各行各业具体场景中的深度运用,各大AI科技公司发布新模型的周期越来越短,发布模型属于“开源”还是“闭源”成为业界关注焦点。而与此同时,开源模型数量的增加和产业对开源模型更广泛的应用,也为监管侧治理带来新的挑战。如何正确认识模型的开源,以及如何构建符合我们期待的开源生态体系,是政策制定者需要首先明确的问题。

模型开源“不用旧瓶装新酒”的美国讨论

模型开源对AI治理的挑战之一在于,模型的开源在多个方面均与传统软件的开源存在显著不同,因此旧有的开源定义、特征及治理方案则无法直接套用。具体而言,在构成要件方面,软件的开源以源代码为主,包含编译器、二进制文件及许可证等,而模型开源的构成则更为复杂,除了模型参数/权重外,还包含了各类技术与非技术组件、模型部署和应用的工具、提高模型安全能力的工具等,并随着技术迭代以较快的速度扩张。在部署及应用方面,开源软件的部署及二次开发要求相对较低,而开源模型的部署成本则较高,对于本地的硬件、配置及运行环境均有要求,即便是参数规模较小的模型也需要一定性能的芯片。在许可证方面,目前软件开源通用的许可证基本可商用并无特定的使用限制,但模型开源市面上所使用的许可证或许可协议可能存在非商用或特定目的的使用限制。在研发成本方面,开发者为开源软件项目编写代码后,可以迅速将编写的代码提交到项目的代码库中,因此软件项目将及时获得新功能、漏洞修复或性能改进,从而软件能力与质量将因广大开发者的参与和贡献而提高,软件的研发成本也因此摊薄,而开源模型的情况不同,无法通过开源软件“合力写代码”的方式实现成本摊薄效应,此外模型的训练和推理成本较高,其他开发者的参与可能反而会推高算力成本。

在此背景下,探索针对模型开源的治理新范式确有必要性。近期,美国关于模型开源作出的公共意见咨询,则以利益平衡为出发点,率先探索针对模型开源的独立治理政策。2024年2月21日,美国商务部国家电信和信息管理局(以下简称“NTIA”)根据拜登总统发布的《安全、可靠和值得信赖地开发和使用人工智能》行政命令,正式启动了一项公共咨询流程。其发布了请求公众意见文件(以下简称“RFC”),以展开对“开放式基础模型”(Open Foundation Model),即“具有广泛可获取权重的双重用途基础模型”的调研。根据NTIA官网发布,美国政策制定者已认识到“开放式基础模型”在促进技术创新和技术普惠、促进下游市场竞争、增强AI安全研究、提高透明度及增加公众监督等方面的巨大利益,以及可能被滥用误用并带来公民权利及社会利益损害的安全风险。此次RFC旨在“在管理和降低随之而来的风险的同时,最大限度地发挥开放式基础模型的益处”,在公众意见收集完成后,美国商务部长将通过 NTIA,并与美国国务卿协商,就“开放式基础模型的潜在利益、风险和影响,以及与这些模型有关的政策和监管建议”编写一份报告提交至美国总统,以进一步开展监管侧的模型开源治理。

公众意见收集阶段已于3月27日截止,官方公布共有333份公众意见,除去个人匿名意见后总数为203份,包括以OpenAI、Meta、Stability AI、Anthropic、谷歌微软等为代表的大模型科技头部公司,其他相关行业公司或提供AI应用及治理方案的其他公司,以GitHub、HuggingFace为代表的开源社区,以及数量众多的旨在促进开源生态建设、技术进步或人工智能治理的其他行业协会、非盈利组织或研究机构。提供公众意见的各主体类型基本情况统计如下:

上述主体从不同的角度探讨了开源理念和生态建设、风险识别和安全评估、负责任技术能力以及政府监管角色和定位等重要问题,并提供了产业界与学术界在模型开源方面最前沿的实践和观点。整体来看,虽然在具体问题上观点各异,但各公众意见在以下方面已达成共识:

1. 业界普遍认可开源在促进创新、提高透明度与安全能力、促进技术传播与普惠等方面的积极作用,认为政策应鼓励开源持续发挥价值。微软在其公众意见中提出,开源模型直接降低了重复开发的成本,并通过开放促进技术创新、竞争与合作,从而加速整个行业进步;维基媒体基金会(Wikimedia Foundation)则从透明度的角度,强调了开放且广泛可获取的AI模型及其部署所需的基础设施,可以成为一种均衡力量,帮助世界各地的司法管辖区减轻在获取、学习和使用模型相关知识方面的劣势。

2. 模型开源和闭源并非二元对立,需基于可及性和开放性来正确认识模型发布,模型的可及性是一个包含多个阶段的连续光谱,而模型的开放性需要综合各要素来判断。HuggingFace及多个行业协会和非盈利组织,如信息技术产业协会(ITI)、计算机及通信行业协会(CCIA)和AI政策与治理工作小组(AIPGWG)等,在其公众意见中均指出并强调了模型可及性光谱这一概念;Mozilla基金会则在其公众意见中提出模型的开放性不仅仅是模型权重的公开发布,还包括源代码、数据集、相关文档等多重要件。

3. 开源和闭源模式各有优劣,应允许多种发布模式并存,以培育充满活力的人工智能生态系统。OpenAI在其公众意见中提出,在人工智能生态系统中,应同时认可完全的模型权重公开和采用API等多样化的模型发布形式,他们都是“通往安全及有益AI的路径”;Meta在其公众意见中强调了Meta支持灵活、多元的模型发布方法,该方法允许其根据不同情况和需求选择最合适的模型发布模式,无论是开放还是封闭,或是两者的结合,从而帮助其最大化AI技术的潜力并确保创新和安全之间的平衡。

4. 鉴于人工智能技术发展迅速,政策应注重利益平衡并保留足够的灵活性,避免用严格标准限制或偏袒某特定模式。法律与经济国际中心(ICLE)在其公众意见中提出,政策在偏爱某种模式的情况下,可能会无意中阻碍技术领域的动态竞争,而这种竞争对于发现和解决技术问题并促进技术创新至关重要;Anthropic在其公众意见中提出,政府在制定政策时应平衡开源模型的安全风险与保持强劲创新之间的关系,过度限制技术和系统的开放传播可能会抑制市场竞争和个人自由。

模型开源治理初探:

从理念与生态建设两个角度出

开源模型生态体系和传统的开源软件体系相比有显著的独特性,在经过一年多的发展后,模型开源生态逐渐趋于成熟,美国的政策意见反馈体现出各方正以更务实的态度理解并接受模型开源的理念和实践,也认识到模型开源是大模型技术发展应用的一种“状态”而非“结果”,开源生态是“能力建设”而非“产品服务”,强调模型开源对大模型技术进步、能力传播演进、产业发展迭代的积极作用。基于美国近期的讨论,我们认为,对于模型开源的促进或治理,首先需要明确模型开源的定义和内涵,界定模型开源生态体系的组成和特征,从而为后续的分析奠定基础。

“开源”是“状态”而非“结果”,避免“开源”和“闭源”的极端二分式界分

基于RFC公众意见,整体来看,开源—闭源二分法逐渐被摒弃,目前市面上的模型并未以“开源”和“闭源”的极端二分式进行严格划分,部分声称“开源”的模型并非完全没有限制,而“闭源”模型也并非模型完全不可及。对此,政策需要基于模型的可及性和开放性程度的不同,认识到模型面向公众的发布存在不同的阶段和程度,由此合理界定模型的“开源”,以保持政策中立,并避免政策产生对特定商业模式的偏好,从而阻碍技术创新和良性竞争。

模型的可及性视角(Accessibility)——“一个光谱”

以“完全封闭”和“完全开放”为两个极点,模型整体能力对于公众的可及性程度呈现由深入浅的“光谱”特征。市面上很大部分的模型并不完全属于“开源/闭源”这两个类别,而是处于这两者之间,即部分RFC公共意见所提出的 “光谱”(Spectrum)的概念,认为需要基于模型能力的可及性程度,以阶段式梯度的方式来看待模型的开放程度。在这种方法下,以API方式向公众开放模型功能也属于光谱中的一个阶段,这些阶段可参考HuggingFace定义的模型可及性程度阶段,包括“完全封闭-渐进/逐级公开-托管可及-基于云/ API 可及-可下载-完全开放”等,或斯坦福大学基础模型研究中心基于HuggingFace上述定义阶段所进行的改版,包括“完全封闭-托管可及-模型API可及-微调API可及-模型参数可及-模型参数、数据及代码可及而使用受限-模型参数、数据及代码可及且使用不受限”等,也可对其进行更细致的划分。

模型开闭源并非“二选一”模型的可及在光谱各阶段呈现动态式发展。模型在发布初始可能处于可及性程度较低阶段,再在后续逐渐向可及性程度较高阶段演进。如OpenAI在其RFC回复意见中提出,其对GPT-2模型的开放采取了“迭代部署”的方案(Iterative Deployment),即首先通过API等方式将模型面向公众使用,再基于模型使用风险评估和公众实际使用的反馈等,逐步提高模型的可及性程度。

○ 模型的开放性视角(Openness)——“多重组件”

模型的开放不仅包括模型参数/权重本身,还需要模型性能相关组件,协助模型部署及应用的工具框架,以及提高模型安全能力的工具等。仅模型参数的开放并不能使用户“拿来即用”,相较于传统软件代码、编译器、二进制文件及许可证的明确划分,模型涉及多种类型的技术和非技术组件,以及与模型部署应用、安全能力相关的框架和工具等,各部分组件和工具的共同作用决定了模型被下游用户部署和使用的效果和性能。部分RFC的公众意见提供了更多影响模型开放性的因素,例如谷歌指出使用协议条款或许可证中的相关限制也将影响模型的开放性(如Meta的Llama 2模型的开源许可证不允许拥有超过 7 亿日活跃用户的服务使用Llama 2,且该模型也不能被用于训练其他的语言模型)。

与其他技术相比,模型意义上的“开放性”更多地偏向于“可用性”的概念,即他人是否可实现对该模型的部署落地,并使模型真正“跑起来”。缺乏必要组件或工具将使他人部署和应用模型的难度和成本大大提高,许多标榜为“开源”的模型或许并不具有这样的可用性,如其并未公开其在模型训练各阶段所使用的方法论,或缺乏严谨的科学文档记录,包括模型卡片(model card)或数据卡片(data card)等,这使得其他开发人员或研究人员难以复现、验证或应用模型。

开源生态是“能力建设”而非“产品服务”,通过以模型“可用性”为核心,构建模型开源生态,实现模型能力的普惠

今年全国两会的政府工作报告提出开展“人工智能+”行动,这里的“+”即强调的是人工智能与各行各业的结合,如何推进人工智能全方位、深层次地融入产业,是目前人工智能技术需要重点发力的所在。而构建理想的开源生态有利于实现这一目标:第一,理想的开源生态将更具有透明度,从而有利于提升产业界对模型内部结构、训练过程及技术效果的认知与管理能力,并建立技术在公众之中的可信度,从而促进产业应用的市场开拓;第二,理想的开源生态将更具有普惠性,表现在全方位部署应用工具的提供以及大模型训练和使用门槛的降低,从而有助于技术以更可控的成本被更广泛的开发者利用,并促进技术向应用的转换;第三,理想的开源生态将更具有市场引领性,开源生态将有助于快速识别和发展更有技术优势的模型,由此开源社区将实际先于最终使用者承担模型市场选择的作用,而更具有安全能力的模型将更具有市场竞争力,因此更安全的模型将被开源社区所选择,并被源源不断地输入到产业应用中去。

为构建此具有透明度、普惠性和市场引领性的理想开源生态模型,政策首先需要为模型开源确立新的价值导向:比起传统软件的“开源”概念中强调“自由”,模型的“开源”概念应更强调“可用”具体而言,即比起传统软件开源所强调的“自由使用、复制、修改、分发源码”,模型的开源应更强调“降低大模型使用门槛,让更多人可以使用AI技术,并参与到AI技术的开发、应用和推广过程中”。在此价值基础上,我们需要围绕模型的“可用性”来打造全方位的模型开源能力生态,具体包括组件、工具、安全等能力模块:

○ 组件——“模型是什么”:围绕模型参数/权重为核心,需要同时提供与模型本身性能相关的组件,即充分了解模型长什么样、怎么训练出来的以及能实现什么效果等基本问题。这些组件主要包括技术组件和非技术组件,其中技术组件包括源代码、训练数据集、算法等,而非技术组件主要为记载了模型训练过程、训练数据、预期用途、技术细节、计算资源、评估结果等详细信息的文档,如数据表、模型卡、训练日志等。这些组件的复杂程度基于开源模型性能和训练精度的提高而增加,并随着人工智能技术的迭代而不断丰富。

○ 工具——“模型怎么用”:除了模型本身性能相关的组件外,帮助模型更易部署及更好应用于用户特定需求的开源工具和框架等的支持,对提高开源模型的可用性也格外重要。

在技术层面,开源工具和框架的多样性为开发者提供了丰富的选择,涉及模型部署应用框架、模型微调和个性化定制、模型管理和存储等多方面,以适应不同资源环境下的模型定制和部署需求。例如,GitAgent框架支持大模型智能体应用的扩展,Ollama框架简化了大模型的本地部署,LMFlow工具箱使个人用户也能轻松微调和定制大模型,ModelX则提供了高效的模型存储服务等。这些工具和框架在开源社区中均被广泛应用,开发者可根据具体需求和资源情况选择合适的工具实现开源模型的落地。

除了上述技术类工具或框架外,开源模型所配备的详尽部署指南和应用文档也有助于提高开源模型的可用性,这些文档涵盖了模型部署的硬件和软件要求、安装步骤、配置指南以及故障排除技巧等内容。此外,示例代码和样例的提供,也有效增强了用户对如何将模型集成到其特定应用中的理解。

○ 安全——“模型更安全”:安全性是模型的能力之一,随着模型可及性和开放性的提高,模型被更广泛的公众所触及和使用,对此匹配更全面及有效的安全工具,以提高模型本身及上下游供应链的各阶段安全性,是具有市场引领作用的开源生态需达成的目标之一。模型安全工具包括用于评估和控制模型全链风险、提高模型内生安全能力或外层护栏能力等方面的工具,这些工具将有利于广大的模型开发人员采用更加透明并可解释的技术来提高模型本地部署的安全能力,同时也可为更多研究人员和公众参与推进AI安全相关的研究和实践。

一方面,这些安全能力工具可能随着开源模型的发布而配套提供。例如Meta 近期发布LLaMA 3的同时也提供了模型信任与安全工具,包括更新 Llama Guard 2(帮助防御模型生成潜在风险输出的预训练模型,并可根据应用需求微调以创建新的分类标准) 和 Cybersec Eval 2 (针对LLM的网络安全基准测试工具,新版本增加了对 LLM 允许滥用其代码解释器的倾向、攻击性网络安全能力以及对提示注入攻击的易感性的测量),并引入了新工具Code Shield(一种过滤大模型生成的不安全代码的护栏)。此外,Meta还同时在其模型卡片中提供了《负责任使用指南》,为开发者提供在每一环节风险评估与管理的最佳实践和考虑因素,以提高下游模型应用的安全能力。

另一方面,这些安全能力工具也可能成为单独的开源项目。例如,在模型安全评测机制方面,2023年9月在GitHub所公开的“Do not answer”是一套低成本评估LLM的开源安全数据集,其包含了939条负责任的模型不应回答的指令,并按照5个风险领域和12种危害类型将其分级分类。

对于上述安全工具的提供,需要开源社区、政策制定者以及开源模型参与者多方协同的努力。开源社区应积极构建和维护一个健康、透明的开发环境,通过制定和执行社区协议,鼓励开发者遵循最佳实践,同时建立奖惩机制以促进负责任的模型及安全工具的贡献;政策制定者应为安全工具的开源提供有利的政策环境和资金支持,包括设置针对开源的激励相容机制等;开源模型生态的参与者中,模型开发者应保证模型信息的透明度和全面性,并尽可能配套提供安全增强工具,对于开源安全工具的开发者则需提供清晰的使用指引,并建立工具长期维护和更新机制。此外,各方应加强沟通协调,建立常态化对话与合作机制,形成推进开源模型安全的合力,从而共同推动开源模型安全标准、评测机制与生态体系的建立。

结语

以大模型为代表的人工智能技术充满了巨大的不确定性,其技术发展路线、产业落地实践、安全治理机制、社会效能影响都处于动态演进之中,而大模型研发资源消耗大、产业应用广、社会影响大,需要更多元、更广泛、全链路的试错和摸索,才能在普遍的不确定性中探寻出一条能够落地、行之有效、各方认同、安全可控的技术应用路径。在这个意义上,模型开源生态在模型落地实践之前充当了“试验田”,让更多的人能够在开源体系中“摸着石头过河”,了解技术特征和应用特点,相互评价、互相监督,从而以最小的成本、最短的路径、最优的方案穿越不确定性的森林,让模型技术匹配实际需求,让产业应用反哺技术研发。

开源模型在凝聚智慧、促进创新方面具有弥足珍贵的积极作用。而在技术变革的时代,人工智能技术所具有的新特征,需要开源继续在持续发挥原有价值的基础上,为模型的普惠贡献力量,而这需要更多地强调模型的“可用性”价值。正确认识和理解模型开源,是回答开源相关问题、理解模型开源的价值、对模型开源进行科学治理的基础。基于模型可及性和开放性程度的阶段式特征,模型“开源”和“闭源”不再是两级对峙的状态,这对于给予模型开发者更多的选择尤为重要,同时采取开源和闭源或更多模型开放方案的组合由此成为可能,从而有利于市场提供多样化的模型产品与服务。对此,构造理想的开源模型生态,将有助于为广大参与者提供从模型训练、评测、安全增强,到部署、工具调用、服务全生命周期的技术支持,从而共同推动人工智能技术与产业的进步和发展。

--END--

转载及合作请评论区或邮箱留言