驾驭 AI 模型的 3 个秘诀 ,如何应对Hugging Face 上 400 万且不断增长的模型?

仅 Hugging Face 平台上就有约四百万个开源 AI 模型。模型的数量多到几乎可以说是过剩了。AI 模型已大规模开源,数百万模型正竞相进入我们的应用程序中。这与重要企业软件和工具的开源有前例可循,例如操作系统、数据库、开发平台和实用程序的免费开放。然而这次有所不同。AI 世界已然形成了一个令人目不暇接的模型阵列,涵盖了从神经网络到风险管理工具的一切。

作者: Joe McKendrick
分类:产品经验
15 次阅读

开源 AI 模型和软件让用户能够以极低的成本(甚至免费)进行下载和验证模型是否满足其业务需求。并随着需求的变动,企业可以快速迭代解决方案,而不用担心被某个厂商锁定 。


这些开源 AI 模型的巨大储存库是 Hugging Face,它目前维护着400万个开源 AI 模型,由拥有 1000 万 AI 开发者的社区构建并服务于该社区。


Hugging Face 的联合创始人兼首席科学官 Thomas Wolf 在最近接受麻省理工学院 “我,我和AI” 系列节目主持人采访时指出:“每五秒钟就有一个新模型发布。”


值得关注的是,Hugging Face 模型包括 Meta 系列、Llama 系列和 DeepSeek。挑战在于,如何从这些令人眼花缭乱的模型中进行甄选,识别和试用哪些适合自己的业务甚至个人项目的模型。而这正如早期的开源软件一样,使用这些模型是一个“按原样”的提议 (as-is proposition),即不提供任何担保或支持,这不适合技术经验不足或不敢冒险的人。


ai-machine-learning-enabling-computers-replicate-human-brain-functioning-self-learning-algorithms-based-data-mining-pattern-recognition-used-solve-complex-tasks-3d-render-animation.jpg


以下是使用和成功应不断增长的开源 AI 模型的三个要点:


只为快速解决问题,请考虑商业化产品


开源 AI 是一项长期战略。封闭的或商业可用的 AI 模型吸引资金和资源,能够迅速将解决方案推向市场——但这主要服务于技术发展的早期阶段。回顾几十年前,Microsoft 和 Apple 等供应商为他们的商业操作系统提供支持和手把手的指导,而像 Linux 这样的开源操作系统则需要与社区成员互动。“在最初的十年或二十年里,Linux 多少是为狂热者或极客准备的,”Wolf 说。“现在,Linux 确实是所有企业软件和所有企业云的基础。”他表示,同样的演变也将在开源 AI 领域发生。


不要低估小模型


您可能不需要庞大的大语言模型 (LLM) 来完成特定任务——您可以下载相当强大的 AI 模型,它们可以在笔记本电脑上运行,甚至可以在手机上运行。小型语言模型 (Small Language Model) 正在获得关注,作为执行不需要大语言模型所有资源的特定任务的一种更有效方式。Wolf 说,Hugging Face 刚刚发布了一个新的小型语言模型 SmolLM3,拥有三十亿参数,它将在您的个人设备上运行良好。


从社交网络种获得推荐


求助于社交媒体可帮助识别适合的开源模型。正如这个世界上大多数事物一样,我们依赖并信任值得信赖的顾问——无论是朋友、同事、影响者还是在线社区成员——的推荐,来帮助我们对正确的产品或解决方案做出决定。这无疑是移动应用下载决策中的主导因素。同样的做法将有助于在 Hugging Face 提供的400万个选项中进行甄选。Hugging Face最初试图通过指南和手册来管理其庞大的 AI 模型库。“但每五秒钟就有一个新模型,这真的不可持续,”Wolf 说。通过搜索进行过滤是缩小范围的一种方法,但社交媒体的推荐、博客文章和采用趋势数据可能是筛选选择的最有效方式。


本文转载编译自https://www.zdnet.com/|原文地址:https://www.zdnet.com/article/3-tips-for-navigating-the-open-source-ai-swarm-4m-models-and-counting/|(编译:Katerina)