🚀 保姆级教程:在 Windows 本地零成本部署 CoPaw + Ollama (打造纯血本地 AI Agent)
前言:
CoPaw 是由 AgentScope 团队开源的个人 AI 助理工作台,自带极其优雅的 Web UI 控制台,支持接入钉钉、飞书等渠道。如果你有一张还不错的显卡,并且极其看重数据隐私,这篇笔记将手把手教你如何通过源码编译,在 Windows 上接入本地 Ollama,打造一个完全断网、零 API 费用、带记忆和工具调用能力的纯血本地数字员工。
🛠️ 准备工作
在开始之前,请确保你的 Windows 电脑已安装以下基础环境:
- Python (建议 3.10+)
- Node.js & npm (用于编译前端控制台)
- Git
- Ollama (且已在后台运行,并提前下载好大模型,例如
ollama run qwen3)
💻 核心部署流程
1. 拉取源码与创建隔离环境
为了不污染系统的全局 Python 环境,强烈建议使用 venv 虚拟环境来进行部署。打开你的终端(CMD 或 PowerShell),执行以下命令:
DOS
# 克隆官方源码仓库并进入目录git clone https://github.com/agentscope-ai/CoPaw.gitcd CoPaw
# 创建名为 copaw-env 的虚拟环境python -m venv copaw-env
# 激活虚拟环境 (Windows CMD/PowerShell 适用).\copaw-env\Scripts\activate(注意:激活成功后,你的命令行提示符前面会出现 (copaw-env) 字样)
2. 安装后端依赖与核心组件
保持在虚拟环境中,安装 CoPaw 后端包。⚠️ 避坑预警: 源码安装默认可能不包含 Ollama 通信组件,需要手动补齐,否则控制台会报 500 Internal Server Error 找不到模块。
DOS
# 从源码以开发模式安装 CoPawpip install -e .
# 手动补齐 Ollama 依赖包(关键避坑!)pip install ollama3. 编译 Web 前端控制台
你可以新开一个终端窗口(或者在当前窗口进入 console 目录),编译基于 Node.js 的前端界面:
DOS
# 进入前端目录并安装依赖、执行构建cd console && npm ci && npm run build4. 初始化配置与解决本地网络冲突
回到 CoPaw 的根目录(确保处于 (copaw-env) 虚拟环境中),先进行系统初始化。
DOS
# 生成默认配置文件与数据目录copaw init --defaults⚠️ 终极避坑预警(IPv6 冲突):
在 Windows 下,Python 极容易将 localhost 解析为 IPv6 地址,导致无法连接本地 IPv4 的 Ollama 服务。在启动前,必须强制指定 Ollama 的 API 地址:
DOS
# 强制绑定本地 IPv4 地址set OLLAMA_HOST=http://127.0.0.1:11434
# 正式启动 CoPaw 服务!copaw app5. 网页端最后配置 (Dummy Key)
服务启动成功后,在浏览器打开 http://127.0.0.1:8088/ 进入控制台。
- 进入 设置 (Settings) -> 模型 (Models)。
- 找到 Ollama 提供商。
- 重要一步: 虽然是本地模型,但为了兼容底层的标准通信协议,必须在 API Key 框里随便填入几个字符(比如填
dummy或ollama),否则对话时会报错提示缺少鉴权。 - 保存并在聊天界面选中你的 Ollama 模型,大功告成!
🧹 附录:如何无痕卸载 (系统洁癖福音)
如果你未来想清理环境,由于我们使用了虚拟环境,系统清理起来极其简单,绝不留赛博垃圾:
-
删代码: 直接删除你克隆的
CoPaw整个项目文件夹(里面包含了虚拟环境)。 -
清数据: 打开你的系统用户目录
C:\Users\你的用户名\,找到并删除名为.copaw的隐藏文件夹(这里面存着你的聊天记录、Agent 记忆和配置文件)。彻底干净,犹如从未安装过!