什么是开源AI?需要了解的12个平台和工具

作者:Ellen Glover


开源模式允许软件自由分发,供公众使用、修改和完善,正是这一模式促成了互联网和云计算等基础技术的发展。如今,类似的策略正在推动人工智能的发展。

通过开放源代码、模型架构和训练数据集等核心组件,开发者、研究人员和好奇的新手都可以探索这些系统的工作原理,并对其进行调整以适应实际应用。其结果营造了一个协作环境,个人可以在此基础上相互贡献,共同推动整个人工智能行业的发展。

“现代人工智能世界建立在开放社区的力量之上,在这里,创新是开放的,我们分享想法,相互启发,相互促进,共同创造,”Databricks首席人工智能科学家乔纳森·弗兰克尔(Jonathan Frankle)告诉记者。“这个社区可能是该领域创新的最大推动力。”


什么是开源人工智能?

“开源”一词源自一种长期存在的开发并共享技术的实践,即任何人都可以访问、分发和在此基础上进行构建。开源人工智能将这些实践应用于人工智能的开发,其中训练数据、源代码和模型本身等基本组件在开源许可下均可免费供公众使用和修改。

训练数据是人工智能(AI)模型学习的所有信息。当训练数据公开可用时,用户可以了解这些数据的来源、构成以及收集和清理方式,从而验证其质量并识别任何偏差。然而,大多数开源人工智能项目并不共享其训练数据——许多人怀疑这一决定源于对版权问题的担忧。

源代码是用于训练和运行人工智能(AI)模型的软件。当源代码公开时,用户可以查看代码以了解模型的工作原理,并对其进行调整以适应特定的应用场景。

模型是驱动人工智能系统的计算机程序,使它们能够识别模式并做出决策。当模型开放时,其训练过程和结构的详细信息将公开。模型本身也经常被共享,允许用户自由部署、检查和在此基础上进行构建。

对于人工智能(AI)系统而言,这些组件需要达到何种程度的“开放”才能被认定为“开源”,这一问题广受争议。在传统软件中,开源与闭源之间的区别是一个基于许可限制的二元问题。但在人工智能领域,开放性存在一个谱系——一端是像OpenAI的GPT-5这样的模型(通过其API提供有限的修改权限,且无法访问其内部机制),另一端则是像艾伦人工智能研究所的多模态开放语言模型这样的模型(其训练数据、代码和底层架构均完全开放)。

在中间位置的是Meta的Llama、Google的Gemma和xAI的Grok-1等模型,它们在准开放许可下运行,限制用户操作,并且只提供对其权重(指导其决策和输出的参数)的访问。开放权重允许开发人员使用、分析和修改模型,但在没有完整源代码或训练数据的情况下,他们无法完全理解模型为何会以这种方式运行。

“当人们谈论开源人工智能时,十有八九是在谈论开源权重,”芯片公司Cerebras的产品营销总监詹姆斯·王(James Wang)表示。Cerebras公司开发了自己的开源模型。


如何获取开源人工智能

开源人工智能模型可以在你的个人电脑上运行,前提是你有足够的计算能力(通常是一块不错的显卡或其他类型的人工智能芯片)。

你可以从Hugging Face等平台下载预训练模型,或者使用LangChain和Transformers等框架直接将它们集成到你的应用程序中。你也可以利用PyTorch和TensorFlow等库上提供的开源资源来构建和部署自己的AI模型。


12款顶级开源人工智能平台和工具(排名不分前后)

1. Apache SystemDS

Apache SystemDS是一个开源机器学习系统,适用于从数据集成、清洗和特征工程到分布式模型训练、部署和服务的端到端数据科学生命周期。

提供声明式、类R和类Python语言以及相关API。

优化器将高级语言和应用程序编程接口(API)编译成混合运行时计划,并根据数据和集群特性自动选择内存内操作和分布式执行(例如,在Apache Spark上)。

支持多种执行模式,包括Spark MLContext、Spark Batch、Standalone和JMLC。

本软件遵循Apache License 2.0协议发布,当前3.x版本系列可供下载。

2. ClearML

ClearML是一个开源平台,旨在自动化、监控和协调从研究到生产的机器学习开发过程。

允许用户将任何机器学习、深度学习或语言模型,与他们现有的AI框架或堆栈集成,应用于任何大型数据集和任何架构中。

附带可选的商业附加功能,如优先支持、托管服务、权限管理和明确界定的服务等级协议(SLA)。

供应商和云平台无关。

支持本地部署、气隙隔离、云环境和混合环境。

3. DeepSeek

DeepSeek是由中国同名人工智能初创公司开发的一款大模型,采用该公司的开源R1和V3.1模型。

提供与ChatGPT、Gemini和Claude相当的在线聊天机器人选项。

效率的提高意味着,在发布时,其运行成本仅为同类准确度竞争模型的一小部分。

响应可以伴随“思维链”输出,向用户展示模型是如何得出其结论的。

本模型遵循MIT许可协议,允许免费使用,并有权修改模型和分发新版本。

4. Hugging Face

Hugging Face 是一个平台和社区,通过提供训练、运行和部署人工智能应用程序的基础设施,帮助用户构建机器学习模型。

维护着一个包含超过一百万个开源模型的库,这些模型支持从自然语言生成到计算机视觉等多种任务。

拥有一个包含20多万套文本、图像、视频、音频甚至地理空间数据的图书馆。

开发了自己的开源语言模型BLOOM,该模型主要用于处理跨语言内容创作和翻译任务。

使用户能够轻松公开共享资源、模型和研究,从而有助于减少模型训练所需的时间和资源。

5. H2O.ai

H2O.ai是一个完全开源的自主式人工智能平台,提供了一系列算法和自动化工具,专为数据预处理、特征工程和模型选择等任务量身定制。

拥有一个机器学习算法库,包括监督学习和无监督学习。

运用自家的生成式人工智能工具,帮助用户分析文档、总结内容并生成新内容。

提供一种可自动标记用户数据的工具,以及一种利用智能字符识别和自然语言处理技术从非结构化文本数据中提取信息的工具。

具备内置智能,能够预测输入数据集的模式。

6. Keras

Keras是一个基于Python的神经网络库,专注于构建和训练深度学习模型。

支持卷积神经网络和循环网络,以及常见的实用层,如dropout、批量归一化和池化。

可在多种框架上运行,包括TensorFlow、PyTorch和JAX。

可以作为跨框架语言来开发自定义组件,如层、模型或指标。

提供数十种深度学习模型以及预训练权重,可用于预测、特征提取和微调。

7. LangChain

LangChain是一个开源框架,用于基于大型语言模型构建应用程序,并提供工具以改进其定制性、准确性和相关性。

其用例与语言模型在总体上的用例大致重叠,包括文档分析和摘要、对话式人工智能和合成数据生成。

提供应用程序编程接口(API),开发者可通过这些接口与开放模型和专有模型进行交互。

支持RAG系统的架构设计,提供转换、存储、搜索和检索信息的工具,以优化模型的响应。

允许开发人员在其系统中融入记忆功能,包括对近期输入的简单记忆以及对历史消息进行复杂记忆分析,以返回最相关的结果。

8. OpenCV

OpenCV(开源计算机视觉库)是一个包含人工智能算法的库,具备全面的计算机视觉功能,适用于实际应用场景。

提供数千种算法,用于目标检测、人脸识别、视频分析等任务。

主要用C++设计,同时提供了Java和Python的封装。

可在Windows、macOS和Linux等桌面操作系统以及Android、iOS和Maemo等移动操作系统上运行。

运营一个社区论坛,并提供多门免费课程。

9. PyTorch

PyTorch是一个基于Python编程语言和Torch库的框架,用于训练神经网络。它最初由Meta AI开发,现在是Linux基金会的一部分,Linux基金会是一个支持开源软件项目的非营利组织。

拥有一个庞大的工具和模型生态系统,包括TorchVision(用于计算机视觉任务)、TorchText(用于自然语言处理任务)和TorchAudio(用于音频处理任务)。

使用张量(一种在GPU上运行的专用数据结构)来编码模型的输入、输出和参数,有助于加速计算过程。

它拥有自己的自动微分引擎“torch.autograd”,用于支持神经网络训练,使其在机器学习框架中拥有最快的训练速度。

支持所有主流云提供商。

10. Scikit-learn

Scikit-learn是一个开源的Python库,专为机器学习、预测分析和统计建模而设计。

提供各种分类、回归和聚类算法,包括支持向量机、随机森林和K均值算法。

提供各种工具,用于模型拟合、数据预处理、模型选择、模型评估等。

旨在与Python数值和科学计算库(包括Pandas、NumPy和SciPy)实现互操作。

拥有活跃的社区和丰富的学习资源。

11. TensorFlow

TensorFlow是由谷歌创建的一个开源软件库,它帮助开发人员在桌面、移动设备、网络、云和物联网设备上构建和部署机器学习模型。

提供了一系列预训练和研究模型,用户可以通过额外数据对其进行微调和定制,以执行新任务。

提供多种工具用于大规模收集、清理和处理数据,包括用于初始训练的标准数据集、用于加载数据的数据管道,以及用于验证和转换大型数据集的工具。

支持多种编程语言,包括Python和JavaScript。

提供免费教程、课程和认证,帮助人们学习人工智能开发的基础知识。

12. Together AI

Together AI提供了一系列开源研究、模型和数据集。其云服务可帮助开发者、研究人员和组织更快、更经济地训练、微调和部署生成式AI模型。

通过无服务器端点提供对200多个开源和专业模型的访问,包括Llama 3、Stable Diffusion XL和Mixtral 8x22B,允许用户对其进行微调。

从零开始构建自定义模型,从数据收集开始,一直到根据流行基准评估模型性能。

提供用于训练和微调的高端计算集群,其中包括Nvidia的H100和H200图形处理器(GPU)。

允许团队轻松共享经过微调的模型,使他们能够在测试、分析使用情况以及为开发过程的每个阶段设置API密钥方面进行协作。


开源人工智能的优势

提供更多控制权

开源人工智能让用户能够完全掌控模型,使他们能够真正拥有模型,并永远按照自己的意愿对其进行修改。封闭式模型则受到更多限制,有时甚至会完全消失。例如,OpenAI已停止对其GPT-3.5模型的改进,这影响了基于该模型构建的所有项目的质量。

开源模型还提供了对模型部署方式和地点的更大控制权,这可以增强数据隐私。弗兰克尔(Frankle)表示,通过在本地或私有云基础设施上运行模型,组织可以在不依赖第三方云服务的情况下保护敏感数据,而封闭模型通常需要依赖第三方云服务。

这种控制也延伸到了成本方面。Writer的首席技术官瓦西姆·阿尔什赫(Waseem Alshikh)表示,组织可以灵活地优化开源模型,而这是封闭式API所无法实现的。他们可以“量化模型”,使其在计算效率上更高,同时又不牺牲准确性。他们可以将大型模型中的知识提炼到更小的模型中。“如果你有权重,你就能想出办法,”阿尔什赫继续说道,“开源的成本要低得多。”

允许更大的定制化

开源让用户能够针对特定用例和行业需求定制自己的模型。公司可以调整模型参数,利用额外数据进行微调,并针对预测分析、业务自动化和语言翻译等特定任务进行优化。

提高模型透明度

开放模型允许用户检查代码、训练数据以及定义其工作原理的模型结构。但在封闭模型中,这些信息被隐藏在所谓的“黑箱”中,使用户难以完全理解其内部工作原理、发现其偏见或识别潜在弱点。开源人工智能模型通过开放这些内部工作原理,使用户更容易理解它们。

咨询公司博思艾伦汉密尔顿的人工智能工程总监布莱恩·卡斯尔告诉Built In网站:“当事情在一扇扇紧闭的门后发生,而你依赖的是商业供应商时,你实际上看不到也并不知道发生了什么。开源[模型]所带来的透明度,能让你更深入地了解它们在做什么、擅长什么、可能存在哪些漏洞。”

然而,这种透明度并不一定能使开放模型更具可解释性。即使所有代码、数据和权重都完全可供审查,但要准确理解模型的行为方式及其原因,即使不是不可能,也仍然很困难。

“这就好像我剖开了你的大脑,窥视了内部,绘制出了每一个神经元的图谱,并查看了所有的连接,”弗兰克尔说,“仅仅因为我剖开了你的大脑,查看了每一个神经元,并不意味着我更了解你。”

使人工智能开发更易获取

开源人工智能有助于使人工智能开发更加普及,它提供了可免费获取的资源和工具,从而降低了入门门槛。

借助开源模型、库和框架,几乎任何人——无论是业余爱好者还是训练有素的AI工程师——都能在无需大量资金投入或专业知识的情况下,开发出自己的AI产品。而像Hugging Face和TensorFlow这样的平台,提供了丰富的文档和社区支持,使新手能够按照自己的节奏学习和尝试AI。

“它为每个人提供了公平的获取途径,”艾伦人工智能研究所首席运营官索菲·莱布雷希特表示“你不需要成为少数能在这些闭源公司中获得高薪工作的人之一。你可以自学,你可以建立自己的专业知识。”

推动社区驱动的创新

社区在开源人工智能中发挥着至关重要的作用,通过协作和集体解决问题来推动创新。当你使用开源人工智能时,你实际上是在利用一个庞大且多样化的开发者网络,这些开发者不断为这些工具的持续改进做出贡献,分享信息并在彼此工作的基础上进行构建。

“拥有一个人们相互学习、相互促进的社区和生态系统是至关重要的,”莱布雷希特(Lebrecht)说。“在开放社区中,以科学的方法进行公开工作,能够带来创新和突破。”


本文转自:千家网,转载此文目的在于传递更多信息,版权归原作者所有。如不支持转载,请联系小编demi@eetrend.com删除。