前言
Coze Studio 是字节跳动开源的 AI 智能体开发平台,让普通用户也能轻松创建自己的 AI 助手。本文将详细介绍如何在 macOS 上从零开始安装开源版 Coze Studio,让你快速上手 AI 开发。
Coze当前的能力和体验又如何,大厂下场后,dify等平台可以被平替吗?作为专门开发Agent应用的个人,应该如何选择?
安装前准备
系统要求
- 操作系统:macOS 10.15 或更高版本
- 硬件要求:至少 2 核 CPU、4GB 内存
- 磁盘空间:至少 10GB 可用空间
- 网络:稳定的互联网连接
需要安装的软件
1. Homebrew(macOS 包管理器)
2. Docker Desktop(容器化平台)
3. Ollama(本地 AI 模型服务)
4. Git(版本控制工具)
详细安装步骤
步骤 1:检查并安装 Homebrew
首先检查是否已安装 Homebrew:
1. which brew
如果没有安装,运行以下命令安装:
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"步骤 2:安装 Docker Desktop
方法一:使用 Homebrew 安装·
1. brew install --cask docker方法二:手动下载安装
如果网络问题导致 Homebrew 安装失败,可以手动下载:
1. 访问 Docker 官网
2. 下载适合 Apple Silicon (M1/M2) 或 Intel 芯片的版本
3. 双击 .dmg 文件安装
4. 启动 Docker Desktop 应用程序
验证 Docker 安装:
1. docker --version
2. docker compose version步骤 3:安装 Ollama
1. brew install ollama启动 Ollama 服务:
brew services start ollama下载 AI 模型:
1. # 下载 Llama 3.2 模型(约 2GB)
2. ollama pull llama3.2
3. # 下载嵌入模型(用于知识库功能)
4. ollama pull nomic-embed-text验证 Ollama 安装:
1. ollama list步骤 4:下载 Coze Studio 源码
1. # 克隆源码到本地
2. git clone https://github.com/coze-dev/coze-studio.git
3. cd coze-studio步骤 5:配置模型
复制模型配置模板:
1. cp backend/conf/model/template/model_template_ollama.yaml backend/conf/model/ollama_llama3.yaml编辑模型配置文件:
1. vim backend/conf/model/ollama_llama3.yaml修改以下字段:
- id: 2003 (保持不变)
- name: "Llama-3.2"
- model: "llama3.2"
- base_url: "http://host.docker.internal:11434"
步骤 6:配置环境变量
1. cd docker
2. cp .env.example .env编辑 .env 文件,修改以下关键配置:
(这里我想要使用的是步骤3在电脑上本地安装好的模型,不是火山的模型,需要对配置文件进行修改;目前作为coze开源的第一个版本,还不像dify那样,支持用户web页面进行修改。)
1.# 模型配置
2.export MODEL_PROTOCOL_0="ollama"
3.export MODEL_OPENCOZE_ID_0="2003"
4.export MODEL_NAME_0="Llama-3.2"
5.export MODEL_ID_0="llama3.2"
6.export MODEL_BASE_URL_0="http://host.docker.internal:11434"
7.# 嵌入模型配置
8.export EMBEDDING_TYPE="openai"
9.export OPENAI_EMBEDDING_BASE_URL="http://host.docker.internal:11434/v1"
10.export OPENAI_EMBEDDING_MODEL="nomic-embed-text"
11.export OPENAI_EMBEDDING_API_KEY="ollama"
12.export OPENAI_EMBEDDING_BY_AZURE=false
13.export OPENAI_EMBEDDING_DIMS=768
14.# 内置模型配置
15.export BUILTIN_CM_TYPE="ollama"
16.export BUILTIN_CM_OLLAMA_BASE_URL="http://host.docker.internal:11434"
17.export BUILTIN_CM_OLLAMA_MODEL="llama3.2"
18.# 服务地址配置(Docker 容器间通信)
19.export MYSQL_HOST=coze-mysql
20.export REDIS_ADDR="coze-redis:6379"
21.export MILVUS_ADDR="coze-milvus:19530"
22.export ES_ADDR="http://coze-elasticsearch:9200"
23.export MINIO_ENDPOINT="coze-minio:9000"
24.export MQ_NAME_SERVER="coze-nsqd:4150"步骤 7:启动 Coze Studio
1. # 启动所有服务(首次启动可能需要 5-10 分钟)
2. docker compose --profile "*" up -d查看启动状态:
1. docker compose ps验证安装
1.检查服务状态
· ·
1. # 所有服务应该显示为 "healthy" 或 "running"
2. docker compose ps2. 测试 Web 界面
打开浏览器访问:http://localhost:8888
3. 测试 API 接口
1. curl -s -o /dev/null -w "%{http_code}" http://localhost:8888/
2. # 应该返回:200总结
通过以上步骤,你已经成功在 macOS 上搭建了开源版 Coze Studio 开发环境。现在我们一起来体验下,感受它和dify之间的异同:
1. 注册+登陆
和dify一样,需要先填写邮箱,并且录入密码,点击注册后,再进行登录。
有所区别的是,在coze的这个版本还不支持分享链接,通过 邀请来创建新账号。

2. 构建智能应用
工作空间双方都是只支持默认的个人空间,不支持创建多个空间来存放应用
- 但明显dify创建应用的方式和类型更多元,尤其支持从DSL导入创建,更是方便已有应用在用户间的分享和传播。
- Coze也支持复制功能,但现在藏得很深,需要到“探索”-“模板”中选择对应的模板(当前只有2个),点击复制。

比如我点击复制,快速生成“导购陪练”。

3. 建立专属知识库
- coze和dify都支持创建知识库,但dify是将知识库作为一个单独的模块;coze则是把知识库作为“资源”的一个类别。
- dify知识库支持导入各种类型的文件,而coze当前只有三种,且必须在新建知识库的时候选定好类型(这个逻辑说实话从产品层面,无疑dify更为合理)


4. 插件和工具的使用
- dify可以在插件市场中,快速选中第三方的插件,并且点击安装即可;
- coze目前官方的插件可以直接使用,无需安装,这点相比来说更为方便;也支持在“资源”处手动创建自己的插件。


5. 应用的发布和使用
- dify发布选项更多,发布后“运行”进行体验,也可以在“探索”中进行使用,同时也支持把工作流发布为工具,供其他Agent和工作流调用。
- coze目前发布后的运行和使用,没有那么直观,有API调用和Chat SDK两种方式

- dify目前还支持通过mcp-server插件把一个工作流转换为一个MCP工具,供内外部进行调用。
6. 工作流的编排能力
- 在支持的节点类型上,coze的能力也是不错的,支持大模型/插件和工作流直接作为节点添加进来。其中添加工作流的方式感觉很有前景,有助于复杂工作流的解耦合和结构化,在dify中应该进行借鉴。
- 目前dify有支持Agent节点,能基于不同的agent工作模型调用大模型/工具/知识库等完成特定的任务;而coze还没有支持。



- coze可以将工作流中的内容写入知识库,完成知识库数据的更新,这也是一个差异点。

综上,当前coze的这个开源版本,还处于比较早期的阶段,取代dify来说还为时过早;但coze的核心功能,流程的编排和体验上,是具备一定的实力的,且也存在dify等其他平台借鉴的亮点。
本文由公众号“一深思AI”授权转载| https://mp.weixin.qq.com/s/soQcSXaN5ypsPyNrf5c1bQ(编辑:潇飞)