菜鸟-创作你的创作

OpenManus本地部署的图文教程分享

以下是我为你整理的 OpenManus 本地部署图文教程 —— 包含从环境准备、安装、配置,到启动运行、常见问题与解决方案。适合想在本地(Windows / Linux / macOS/WSL)尝试这一开源 AI‑agent 框架的人。

Image

1. 准备工作与环境要求


2. 获取源码 & 创建环境

步骤:

# 推荐使用 conda
conda create -n open_manus python=3.12
conda activate open_manus

然后,克隆源码:

git clone https://github.com/mannaandpoem/OpenManus.git
cd OpenManus

如果你无法使用 git,也可用 ZIP 包方式下载,但推荐保持 .git 信息以便后续更新。 (CSDN博客)

接着安装依赖:

pip install -r requirements.txt

如果你希望使用浏览器自动化等功能,可额外执行:


playwright install

> 这是可选但常用功能。 :contentReference[oaicite:9]{index=9}

---

## 3. 配置 OpenManus(尤其是 LLM / 模型配置)


::contentReference[oaicite:10]{index=10}


- 进入 `config/` 目录,将示例配置文件复制为实际配置文件:

```bash
cp config/config.example.toml config/config.toml

[llm]
api_type = "ollama"
model = "qwen2.5:14b"             # 或你本地部署/下载的模型名
base_url = "http://localhost:11434/v1"   # Ollama 服务地址
api_key = "ollama"                # Ollama 的默认 key(或空串)
max_tokens = 2048
temperature = 0.2

也可以配置视觉模型(image / vision)部分,若你希望使用图像 + LLM 联合的功能。 (CSDN博客)

注意:如果配置不正确(例如模型名称错误、base_url/端口错误、api_key 错误等),OpenManus 将无法连接 LLM,导致功能失败。建议先单独测试 LLM 服务是否可用后再配置。 (CSDN博客)


4. 启动 & 运行 OpenManus

最基础启动方式(命令行):

python main.py

启动后,你会在终端看到提示,然后可以直接输入自然语言 prompt 与 Agent 对话/交互。 (GitHub)

如果你希望 Web 界面形式交互(而不是命令行),也有社区 → WebUI 支持/适配版本,例如可通过:

python web_run.py
# 或 uvicorn/FastAPI 等方式启动

然后通过浏览器访问 http://localhost:8000(或指定端口)操作。 (GitHub)


5. 常见问题 & 排查/避坑方案

问题 / 表现可能原因 & 解决方法
LLM 服务连不上 / 报网络错误 / “function call not supported for this model”模型配置有误(model 名称 / base_url / api_key /协议路径错误);确认本地 LLM 服务(如 Ollama)已启动。 (Reddit)
路径或文件夹创建失败 / 无法写入 / 生成文件报错在 Windows 下不要放在需要管理员权限的目录;建议放在用户目录 /普通文件夹,避免权限问题。 (Reddit)
Python 版本过高导致依赖冲突 / 报错强制使用 Python 3.12 虚拟环境,不要使用系统默认 Python /版本过高 Python。 (GitHub)
功能模块不完整 / 浏览器自动化失败如果不用浏览器功能,可跳过安装浏览器相关依赖;若需要,请确保 playwright install 成功。 (GitHub)
本地模型资源不足 / 推理缓慢或失败使用轻量模型或降低上下文/token 数;如果机器性能有限,不建议尝试超大模型。 (CSDN博客)

6. 推荐 “新手 / 本地用户” 使用指南 & 最佳实践


7. 总结

退出移动版