LangManus 使用方法 - AI 自动化框架开发指南
2025-03-24 15:51 更新
基本执行
使用默认设置运行 LangManus:
uv run main.py
API 服务器
LangManus 提供基于 FastAPI 的 API 服务器,支持流式响应:
## 启动 API 服务器
make serve
## 或直接运行
uv run server.py
API 服务器提供以下端点:
-
POST /api/chat/stream
:用于 LangGraph 调用的聊天端点,流式响应
- 请求体:
{
"messages": [{ "role": "user", "content": "在此输入您的查询" }],
"debug": false
}
- 返回包含智能体响应的服务器发送事件(SSE)流
高级配置
LangManus 可以通过 src/config
目录中的各种配置文件进行自定义:
env.py
:配置 LLM 模型、API 密钥和基础 URLtools.py
:调整工具特定设置(如 Tavily 搜索结果限制)agents.py
:修改团队组成和智能体系统提示
智能体提示系统
LangManus 在 src/prompts
目录中使用复杂的提示系统来定义智能体的行为和职责:
核心智能体角色
- 主管(
src/prompts/supervisor.md
):通过分析请求并确定由哪个专家处理来协调团队并分配任务。负责决定任务完成情况和工作流转换。 - 研究员(
src/prompts/researcher.md
):专门通过网络搜索和数据收集来收集信息。使用 Tavily 搜索和网络爬取功能,避免数学计算或文件操作。 - 程序员(
src/prompts/coder.md
):专业软件工程师角色,专注于 Python 和 bash 脚本。处理:- Python 代码执行和分析
- Shell 命令执行
- 技术问题解决和实现
- 文件管理员(
src/prompts/file_manager.md
):处理所有文件系统操作,重点是正确格式化和保存 markdown 格式的内容。 - 浏览器(
src/prompts/browser.md
):网络交互专家,处理:- 网站导航
- 页面交互(点击、输入、滚动)
- 从网页提取内容
提示系统架构
提示系统使用模板引擎(src/prompts/template.py
)来:
- 加载特定角色的 markdown 模板
- 处理变量替换(如当前时间、团队成员信息)
- 为每个智能体格式化系统提示
每个智能体的提示都在单独的 markdown 文件中定义,这样无需更改底层代码就可以轻松修改行为和职责。
以上内容是否对您有帮助:
更多建议: