手把手教你本地部署 Coze Studio & 深度对比dify

详细介绍字节跳动开源的 Coze Studio 在 macOS 上的安装步骤 ,并对比了其与 Dify 在应用构建、知识库、插件和工作流编排等方面的功能差异

作者: 一深思AI
分类:工作效率
38 次阅读


前言


       Coze Studio 是字节跳动开源的 AI 智能体开发平台,让普通用户也能轻松创建自己的 AI 助手。本文将详细介绍如何在 macOS 上从零开始安装开源版 Coze Studio,让你快速上手 AI 开发。


       Coze当前的能力和体验又如何,大厂下场后,dify等平台可以被平替吗?作为专门开发Agent应用的个人,应该如何选择?


安装前准备

   系统要求

      • 操作系统:macOS 10.15 或更高版本
      • 硬件要求:至少 2 核 CPU、4GB 内存
      • 磁盘空间:至少 10GB 可用空间
      • 网络:稳定的互联网连接


需要安装的软件

       1.  Homebrew(macOS 包管理器)

       2. Docker Desktop(容器化平台)

       3. Ollama(本地 AI 模型服务)

       4. Git(版本控制工具)


详细安装步骤

   步骤 1:检查并安装 Homebrew


   首先检查是否已安装 Homebrew:

1. which brew

   如果没有安装,运行以下命令安装:

/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"


   步骤 2:安装 Docker Desktop


   方法一:使用 Homebrew 安装·

1. brew install --cask docker


   方法二:手动下载安装

       如果网络问题导致 Homebrew 安装失败,可以手动下载:


       1. 访问 Docker 官网

       2. 下载适合 Apple Silicon (M1/M2) 或 Intel 芯片的版本

       3. 双击 .dmg 文件安装

       4. 启动 Docker Desktop 应用程序


       验证 Docker 安装:

1. docker --version
2. docker compose version


   步骤 3:安装 Ollama

1. brew install ollama


   启动 Ollama 服务:

brew services start ollama


   下载 AI 模型:

1. # 下载 Llama 3.2 模型(约 2GB)
2. ollama pull llama3.2
3. # 下载嵌入模型(用于知识库功能)
4. ollama pull nomic-embed-text


   验证 Ollama 安装:

 1. ollama list


   步骤 4:下载 Coze Studio 源码

1. # 克隆源码到本地
2. git clone https://github.com/coze-dev/coze-studio.git
3. cd coze-studio


   步骤 5:配置模型


   复制模型配置模板:

1. cp backend/conf/model/template/model_template_ollama.yaml backend/conf/model/ollama_llama3.yaml


   编辑模型配置文件:

1. vim backend/conf/model/ollama_llama3.yaml


   修改以下字段:

      • id: 2003 (保持不变)
      • name: "Llama-3.2"
      • model: "llama3.2"
      • base_url: "http://host.docker.internal:11434"


   步骤 6:配置环境变量

1. cd docker
2. cp .env.example .env


   编辑 .env 文件,修改以下关键配置:

       (这里我想要使用的是步骤3在电脑上本地安装好的模型,不是火山的模型,需要对配置文件进行修改;目前作为coze开源的第一个版本,还不像dify那样,支持用户web页面进行修改。)


1.# 模型配置
2.export MODEL_PROTOCOL_0="ollama"
3.export MODEL_OPENCOZE_ID_0="2003"
4.export MODEL_NAME_0="Llama-3.2"
5.export MODEL_ID_0="llama3.2"
6.export MODEL_BASE_URL_0="http://host.docker.internal:11434"
7.# 嵌入模型配置
8.export EMBEDDING_TYPE="openai"
9.export OPENAI_EMBEDDING_BASE_URL="http://host.docker.internal:11434/v1"
10.export OPENAI_EMBEDDING_MODEL="nomic-embed-text"
11.export OPENAI_EMBEDDING_API_KEY="ollama"
12.export OPENAI_EMBEDDING_BY_AZURE=false
13.export OPENAI_EMBEDDING_DIMS=768
14.# 内置模型配置
15.export BUILTIN_CM_TYPE="ollama"
16.export BUILTIN_CM_OLLAMA_BASE_URL="http://host.docker.internal:11434"
17.export BUILTIN_CM_OLLAMA_MODEL="llama3.2"
18.# 服务地址配置(Docker 容器间通信)
19.export MYSQL_HOST=coze-mysql
20.export REDIS_ADDR="coze-redis:6379"
21.export MILVUS_ADDR="coze-milvus:19530"
22.export ES_ADDR="http://coze-elasticsearch:9200"
23.export MINIO_ENDPOINT="coze-minio:9000"
24.export MQ_NAME_SERVER="coze-nsqd:4150"


   步骤 7:启动 Coze Studio

1. # 启动所有服务(首次启动可能需要 5-10 分钟)
2. docker compose --profile "*" up -d


   查看启动状态:

1. docker compose ps


   验证安装


   1.检查服务状态

· ·

1. # 所有服务应该显示为 "healthy" 或 "running"
2. docker compose ps


   2. 测试 Web 界面

       打开浏览器访问:http://localhost:8888


   3. 测试 API 接口

1. curl -s -o /dev/null -w "%{http_code}" http://localhost:8888/
2. # 应该返回:200


总结

       通过以上步骤,你已经成功在 macOS 上搭建了开源版 Coze Studio 开发环境。现在我们一起来体验下,感受它和dify之间的异同:


   1. 注册+登陆

       和dify一样,需要先填写邮箱,并且录入密码,点击注册后,再进行登录。

       有所区别的是,在coze的这个版本还不支持分享链接,通过 邀请来创建新账号。


wps_doc_0.png


   2. 构建智能应用

       工作空间双方都是只支持默认的个人空间,不支持创建多个空间来存放应用


      • 但明显dify创建应用的方式和类型更多元,尤其支持从DSL导入创建,更是方便已有应用在用户间的分享和传播。
      • Coze也支持复制功能,但现在藏得很深,需要到“探索”-“模板”中选择对应的模板(当前只有2个),点击复制。


wps_doc_1.png


       比如我点击复制,快速生成“导购陪练”。


wps_doc_2.png

   3. 建立专属知识库


      • coze和dify都支持创建知识库,但dify是将知识库作为一个单独的模块;coze则是把知识库作为“资源”的一个类别。
      • dify知识库支持导入各种类型的文件,而coze当前只有三种,且必须在新建知识库的时候选定好类型(这个逻辑说实话从产品层面,无疑dify更为合理)


wps_doc_3.png

wps_doc_4.png


   4. 插件和工具的使用


      • dify可以在插件市场中,快速选中第三方的插件,并且点击安装即可;
      • coze目前官方的插件可以直接使用,无需安装,这点相比来说更为方便;也支持在“资源”处手动创建自己的插件。


wps_doc_5.png

wps_doc_6.png


   5. 应用的发布和使用


      • dify发布选项更多,发布后“运行”进行体验,也可以在“探索”中进行使用,同时也支持把工作流发布为工具,供其他Agent和工作流调用。
      • coze目前发布后的运行和使用,没有那么直观,有API调用和Chat SDK两种方式


wps_doc_7.png


      • dify目前还支持通过mcp-server插件把一个工作流转换为一个MCP工具,供内外部进行调用。

   6. 工作流的编排能力

      • 在支持的节点类型上,coze的能力也是不错的,支持大模型/插件和工作流直接作为节点添加进来。其中添加工作流的方式感觉很有前景,有助于复杂工作流的解耦合和结构化,在dify中应该进行借鉴。
      • 目前dify有支持Agent节点,能基于不同的agent工作模型调用大模型/工具/知识库等完成特定的任务;而coze还没有支持。


wps_doc_8.png

wps_doc_9.png


      • coze可以将工作流中的内容写入知识库,完成知识库数据的更新,这也是一个差异点。


wps_doc_10.png


       综上,当前coze的这个开源版本,还处于比较早期的阶段,取代dify来说还为时过早;但coze的核心功能,流程的编排和体验上,是具备一定的实力的,且也存在dify等其他平台借鉴的亮点。


本文由公众号“一深思AI”授权转载| https://mp.weixin.qq.com/s/soQcSXaN5ypsPyNrf5c1bQ(编辑:潇飞)