Published on

manus

Authors
  • avatar
    Name
    MissTree
    Twitter

与 deepseek、chatgpt 等模型不同的是, deepseek、chatgpt 是底层模型。而Manus是AI Agent(智能体),专注于任务分解与执行,而非底层模型创新。Manus的优势在于工程整合,如自动拆解任务、调用工具、生成完整成果(如PPT、数据分析等),而非模型本身的原创性。

本地部署

安装前配置

ollama 下载 根据自己的硬件配置下载对应版本的模型。没有独显的建议下载 7B 版本。 安装 python3.12 版本。 qwen2.5-coder 下载 下载 conda

ollama run qwen2.5-coder:7b
# conda 使用默认安装配置

# 绑定python3.12版本
conda create -n open_manus python=3.12
conda activate open_manus
# 执行上面命令后,会出现 (open_manus) 字样,代表已经进入虚拟环境
-- (open_manus)C:\Users\admin

相关配置

# 下载 openmanus 
git clone https://github.com/mannaandpoem/OpenManus.git
# 上面命令克隆下载后(在CMD模式下默认是C:\Users\admin,可以自行设置路径),进入OpenManus目录
cd OpenManus

# 安装依赖
pip install -r requirements.txt

# 安装视觉模型
ollama run minicpm-v

在C:\Users\admin\OpenManus\config(我的openmanus安装在C:\Users\admin\下)修改config.example.toml文件名,改为config.toml。文件内配置修改为

# Global LLM configuration
[llm]
model = "qwen2.5-coder:14b"   # 使用qwen2.5-coder模型名称
base_url = "http://127.0.0.1:11434/v1"
api_key = "ollama"
max_tokens = 4096
temperature = 0.0

# [llm] #AZURE OPENAI:
# api_type= 'azure'
# model = "YOUR_MODEL_NAME" #"gpt-4o-mini"
# base_url = "{YOUR_AZURE_ENDPOINT.rstrip('/')}/openai/deployments/{AZURE_DEPOLYMENT_ID}"
# api_key = "AZURE API KEY"
# max_tokens = 8096
# temperature = 0.0
# api_version="AZURE API VERSION" #"2024-08-01-preview"

# Optional configuration for specific LLM models
[llm.vision]
# 可视化使用qwen2.5-coder模型名称,也可以使用 minicpm-v
model = "qwen2.5-coder:14b"   
base_url = "http://127.0.0.1:11434/v1"
api_key = "ollama"

执行命令

python main.py

重新启动

在关闭CMD窗口后,重新打开CMD窗口,执行命令

# 启动 conda
conda activate open_manus
# 进入项目目录
cd OpenManus
# 执行命令
python main.py

使用体验

可能是没有显卡的原因,执行相关命令花费时间比较长,而且准确度还不是很高。还不如手动操作。体验没有想象中好。