DeepChat是一个功能丰富的开源 AI Agent 平台,统一模型、工具与 Agent:多模型聊天、MCP 工具调用,以及 ACP Agent 集成。
- 📑 目录
- 🚀 项目简介
- 💡 为什么选择DeepChat
- 🔥 主要功能
- 🧩 ACP 集成(Agent Client Protocol)
- 🤖 支持的模型提供商
- 🔍 使用场景
- 📦 快速开始
- 💻 开发指南
- 👥 社区与贡献
- ⭐ Star历史
- 👨💻 贡献者
- 📃 许可证
DeepChat是一个功能强大的开源 AI Agent 平台,将模型、工具与 Agent Runtime 统一在一款桌面应用中。无论是云端API如OpenAI、Gemini、Anthropic,还是本地部署的Ollama模型,DeepChat都能提供流畅的用户体验。
除了聊天,DeepChat还支持更强的 agentic 工作流:通过 MCP(Model Context Protocol)进行工具调用,并内置 ACP(Agent Client Protocol)集成,让 ACP 兼容 Agent 以一等“模型”形态接入,同时提供专用 Workspace UI。
|
|
与其他AI工具相比,DeepChat具有以下独特优势:
- 多模型统一管理:一个应用支持几乎所有主流LLM,无需在多个应用间切换
- 本地模型无缝集成:内置Ollama支持,无需命令行操作即可管理和使用本地模型
- Agentic 协议生态:内置MCP支持工具调用(代码执行、网络访问等),同时内置ACP支持将外部 Agent 接入 DeepChat,并提供原生 Workspace 体验
- 强大的搜索增强:支持多种搜索引擎,让AI回答更加准确和及时,提供了非标网页搜索范式,可以快速定制
- 注重隐私保护:本地数据存储,支持网络代理,减少信息泄露风险
- 开源友好:基于 Apache License 2.0 协议,适合商业和个人使用
- 🌐 多种云端LLM提供商支持:DeepSeek、OpenAI、Kimi、Grok、Gemini、Anthropic等
- 🏠 本地模型部署支持:
- 集成Ollama,提供全面的管理功能
- 无需命令行操作即可控制和管理Ollama模型的下载、部署和运行
- 🚀 丰富易用的聊天功能
- 完整的Markdown渲染,代码块渲染基于业界顶级的 CodeMirror 实现
- 多窗口+多Tab架构,各个维度支持多会话并行运行,就像使用浏览器一样使用大模型,无阻塞的体验带来了优异的效率
- 支持 Artifacts 渲染,多样化结果展示,MCP集成后显著节省token消耗
- 消息支持重试生成多个变体;对话可自由分支,确保总有合适的思路
- 支持渲染图像、Mermaid图表等多模态内容;支持GPT-4o,Gemini,Grok的文本到图像功能
- 支持在内容中高亮显示搜索结果等外部信息源
- 🔍 强大的搜索扩展能力
- 通过MCP模式内置集成博查搜索、Brave Search等 领先搜索API,让模型智能决定何时搜索
- 通过模拟用户网页浏览,支持Google、Bing、百度、搜狗公众号搜索等主流搜索引擎,使LLM能像人类一样阅读搜索引擎
- 支持读取任何搜索引擎;只需配置搜索助手模型,即可连接各种搜索源,无论是内部网络、无API的引擎,还是垂直领域搜索引擎,作为模型的信息源
- 🔧 出色的MCP(Model Context Protocol)支持
- 完整支持了 MCP 协议中 Resources/Prompts/Tools 三大核心能力
- 支持语义工作流,通过理解任务的意义和上下文,实现更复杂和智能的自动化
- 极其用户友好的配置界面
- 美观清晰的工具调用显示
- 详细的工具调用调试窗口,自动格式化工具参数和返回数据
- 内置 Node.js 运行环境;类似 npx/node 的服务无需额外配置开箱即用
- 支持 StreamableHTTP/SSE/Stdio 协议 Transports
- 支持 inMemory 服务,内置代码执行、网络信息获取、文件操作等实用工具;开箱即用,无需二次安装即可满足大多数常见用例
- 通过内置 MCP 服务,将视觉模型能力转换为任何模型都可通用的函数
- 🤝 ACP(Agent Client Protocol)Agent 集成
- 将 ACP 兼容 Agent(内置或自定义命令)作为可选“模型”使用
- Agent 提供时,支持 ACP Workspace UI 展示结构化计划、工具调用与终端输出
- 💻 多平台支持:Windows、macOS、Linux
- 🎨 美观友好的界面,以用户为中心的设计,精心设计的明暗主题
- 🔗 丰富的DeepLink支持:通过链接发起对话,与其他应用无缝集成。还支持一键安装MCP服务,简单快速
- 🚑 安全优先设计:聊天数据和配置数据预留加密接口和代码混淆能力
- 🛡️ 隐私保护:支持屏幕投影隐藏、网络代理等隐私保护方法,降低信息泄露风险
- 💰 商业友好:
- 拥抱开源,基于 Apache License 2.0 协议,企业使用安心无忧
- 企业集成只需要修改极少配置代码即可使用预留的加密混淆的安全能力
- 代码结构清晰,无论是模型供应商还是 MCP 服务都高度解耦,可以随意进行增删定制,成本极低
- 架构合理,数据交互和UI行为分离,充分利用 Electron 的能力,拒绝简单的网页套壳,性能优异
DeepChat内置对 Agent Client Protocol(ACP) 的支持,让你可以把外部 Agent Runtime 以原生体验接入 DeepChat。启用后,ACP Agent 会作为一等“模型”出现在模型选择器中,你可以直接在 DeepChat 内使用编码/任务类 Agent,并配合 Workspace UI 进行交互。
快速上手:
- 打开 设置 → ACP Agent 并开启 ACP
- 启用一个内置 ACP Agent,或添加自定义 ACP 兼容命令
- 在模型选择器中选择该 ACP Agent,开始一个 Agent 会话
ACP 生态中更多兼容 Agent/Client 参考:https://agentclientprotocol.com/overview/clients
DeepChat适用于多种AI应用场景:
- 日常助手:回答问题、提供建议、辅助写作和创作
- 开发辅助:代码生成、调试、技术问题解答
- 学习工具:概念解释、知识探索、学习辅导
- 内容创作:文案撰写、创意激发、内容优化
- 数据分析:数据解读、图表生成、报告撰写
您可以通过以下任一方式安装 DeepChat:
方式一:GitHub Releases
从GitHub Releases页面下载适合您系统的最新版本:
- Windows:
.exe安装文件 - macOS:
.dmg安装文件 - Linux:
.AppImage或.deb安装文件
方式二:官网下载
从官网下载页面获取安装包。
方式三:Homebrew(仅 macOS)
macOS 用户可以使用 Homebrew 安装:
brew install --cask deepchat- 启动DeepChat应用
- 点击设置图标
- 选择"模型提供商"选项卡
- 添加您的API密钥或配置本地Ollama
- 点击"+"按钮创建新对话
- 选择您想使用的模型
- 开始与AI助手交流
请阅读贡献指南
Windows和Linux通过GitHub Action打包。 对于Mac相关的签名和打包,请参考Mac发布指南。
$ pnpm install
$ pnpm run installRuntime
# 如果出现错误:No module named 'distutils'
$ pip install setuptools- For Windows: 为允许非管理员用户创建符号链接和硬链接,请在设置中开启
开发者模式或使用管理员账号,否则pnpm操作将失败。
$ pnpm run dev# Windows
$ pnpm run build:win
# macOS
$ pnpm run build:mac
# Linux
$ pnpm run build:linux
# 指定架构打包
$ pnpm run build:win:x64
$ pnpm run build:win:arm64
$ pnpm run build:mac:x64
$ pnpm run build:mac:arm64
$ pnpm run build:linux:x64
$ pnpm run build:linux:arm64DeepChat是一个活跃的开源社区项目,我们欢迎各种形式的贡献:
查看贡献指南了解更多参与项目的方式。
感谢您考虑为deepchat做出贡献!贡献指南可以在贡献指南中找到。
本项目的构建得益于这些优秀的开源库:

