- Published on
manus
- Authors

- Name
- MissTree
与 deepseek、chatgpt 等模型不同的是, deepseek、chatgpt 是底层模型。而Manus是AI Agent(智能体),专注于任务分解与执行,而非底层模型创新。Manus的优势在于工程整合,如自动拆解任务、调用工具、生成完整成果(如PPT、数据分析等),而非模型本身的原创性。
本地部署
安装前配置
在 ollama 下载 根据自己的硬件配置下载对应版本的模型。没有独显的建议下载 7B 版本。 安装 python3.12 版本。 qwen2.5-coder 下载 下载 conda
ollama run qwen2.5-coder:7b
# conda 使用默认安装配置
# 绑定python3.12版本
conda create -n open_manus python=3.12
conda activate open_manus
# 执行上面命令后,会出现 (open_manus) 字样,代表已经进入虚拟环境
-- (open_manus)C:\Users\admin
相关配置
# 下载 openmanus
git clone https://github.com/mannaandpoem/OpenManus.git
# 上面命令克隆下载后(在CMD模式下默认是C:\Users\admin,可以自行设置路径),进入OpenManus目录
cd OpenManus
# 安装依赖
pip install -r requirements.txt
# 安装视觉模型
ollama run minicpm-v
在C:\Users\admin\OpenManus\config(我的openmanus安装在C:\Users\admin\下)修改config.example.toml文件名,改为config.toml。文件内配置修改为
# Global LLM configuration
[llm]
model = "qwen2.5-coder:14b" # 使用qwen2.5-coder模型名称
base_url = "http://127.0.0.1:11434/v1"
api_key = "ollama"
max_tokens = 4096
temperature = 0.0
# [llm] #AZURE OPENAI:
# api_type= 'azure'
# model = "YOUR_MODEL_NAME" #"gpt-4o-mini"
# base_url = "{YOUR_AZURE_ENDPOINT.rstrip('/')}/openai/deployments/{AZURE_DEPOLYMENT_ID}"
# api_key = "AZURE API KEY"
# max_tokens = 8096
# temperature = 0.0
# api_version="AZURE API VERSION" #"2024-08-01-preview"
# Optional configuration for specific LLM models
[llm.vision]
# 可视化使用qwen2.5-coder模型名称,也可以使用 minicpm-v
model = "qwen2.5-coder:14b"
base_url = "http://127.0.0.1:11434/v1"
api_key = "ollama"
执行命令
python main.py
重新启动
在关闭CMD窗口后,重新打开CMD窗口,执行命令
# 启动 conda
conda activate open_manus
# 进入项目目录
cd OpenManus
# 执行命令
python main.py
使用体验
可能是没有显卡的原因,执行相关命令花费时间比较长,而且准确度还不是很高。还不如手动操作。体验没有想象中好。