手把手教你实现“Manus”:构建基于容器的多用户Agent【下】

360影视 动漫周边 2025-03-25 19:28 4

摘要:def execute_code_docker(code: str,language: str,user_id: str ,task_id: str) -> str:"""在Docker容器中执行代码的函数Args:code: 要执行的代码language:

继续上文(手把手教你实现自己的“Manus”:构建基于容器的多用户Agent应用【上】)来完成自己的“Manus”。再重复下我们关注的重点:

编码Agent与Web Agent是主要任务工具它们需要在容器环境中执行以确保安全多用户环境,每个用户有自己的Agent与容器

本篇将完成剩下的任务(代码地址在文末):

构建Tool:Python代码执行器(Docker版)构建Tool:浏览器自动化(Docker版)组装Prompts与ReAct Agent测试与未来改进

01

构建Tool:Python代码执行器

这个工具的任务是把AI生成的代码在一个动态启动的容器中执行,并返回结果。它并不关心代码的目的,仅仅是纯粹的执行。首先准备一个工具函数:

...def execute_code_docker(code: str,language: str,user_id: str ,task_id: str) -> str:"""在Docker容器中执行代码的函数Args:code: 要执行的代码language: 代码语言 ("python", "bash", "sh")user_id: 用户ID,区分不同用户task_id: 任务ID,如果不提供则创建新任务Returns:字符串结果,包含输出或错误信息""".........此处省略.......return JSON.dumps(result_data)

把这个函数转化为Agent需要的Tool,这里包装一个create函数:

def create_code_executor_docker_tool:"""创建docker代码执行工具"""return FunctionTool.from_defaults(name="docker_code_executor",description="在Docker容器中执行Python代码或Shell脚本。对于Python代码,使用language='python';对于Shell脚本,使用language='bash'或'sh'。需要提供user_id区分不同用户,可以指定task_id继续在特定任务上下文中执行,不指定则创建新任务。",fn=execute_code_docker,)

OK,这就是全部工作。如果不放心,你可以单独测试这个工具。

02

构建Tool:浏览器自动化

这个Tool依赖于一个Web Agent,用来完成浏览器自动化任务(参考:Web Agent技术揭秘:如何让DeepSeek接管与控制你的浏览器?)。常见的技术方案有微软的OmniParse视觉分析以及browser-use开源Agent框架。可以借助browser-use来快速实现这个Agent:

...# 初始化浏览器browser = Browser(config=browser_config)# 创建代理,输入task即可,比如“上youtube看当前热点”agent = Agent(task=task,llm=llm,use_vision=use_vision,max_failures=max_failures,max_actions_per_step=max_actions,browser=browser)result = await agent.run

由于需要在容器中完成web浏览,为了方便,我们把这个Agent调试好再直接build到容器镜像中(参考上篇的Dockerfile)。而Tool只需要调用容器中的Agent即可:

所以这个工具函数就很简单了,无非是把输入任务转换成调用agent_browser的脚本并通过容器执行:

def execute_browser_task(task_description: str,user_id: str = "default",task_id: Optional[str] = None) -> str:"""执行浏览器任务并返回结果Args:task_description: 浏览器工作任务描述文本user_id: 用户ID,区分不同用户task_id: 任务ID,如果不提供则创建新任务Returns:str: JSON格式的任务执行结果"""shell_code = f'python /app/agent_browser.py -t "{task_description}"'...此处省略...result = container.execute(shell_code, "bash")...

然后参考上一节的方法把这个函数转化为工具即可。

03

组装Prompts与ReAct Agent

除了上面两个以外,我们还有两个工具:

CodeGenerator: 为了各司其职,这里把生成代码的工作交给一个独立的Tool(也可以是Agent)完成,而不是由任务推理的LLM直接生成,这样有利于单独调试,并使用更擅长编码的模型。WebpageCrawler: 采集指定网址的内容。主要用于测试。

【Prompts建议】

大模型”咒语“的重要性不言而喻。在这个Agent中,有两个主要的提示:

* 主任务推理提示:由于这里使用ReActAgent,因此使用其标准化提示,由框架内置。不过LlamaIndex允许插入一个Context_prompt,可以在这增加一些指令,以帮助更好的推理任务步骤与参数。我这里给了一些任务拆分的”Tips“,如:

* 编码提示:即LLM代码生成的提示。这个提示中可以根据实际需要给出一些编码的规则、约束以及环境信息等,帮助生成一次性成功的代码。如:

这些编码规则最后组装到完整的Prompt中:

...prompt = f"""{CODE_GENERATION_PROMPT}任务描述:{task_description}额外上下文:{additional_context}请直接返回代码,无需其他解释。"""

【Agent组装】

为了简化,这里采用LlamaIndex中预置的ReActAgent抽象来实现这个Agent。把工具交给Agent,并设定LLM及部分参数即可:

...# 创建用户专属的工具实例tool_code_executor_docker = create_code_executor_docker_tooltool_browser_docker = create_browser_docker_tooltool_code_generator = create_code_generator_tooltool_webpage_crawler = create_webpage_crawler_tool # 新增网页采集工具# 创建用户专属的Agent_agents[user_id] = ReActAgent.from_tools(max_iterations=20,tools=[tool_code_generator,tool_code_executor_docker,tool_browser_docker,tool_webpage_crawler # 添加到工具列表],llm=llm,verbose=True,context=REACT_AGENT_CONTEXT)...

【客户端模拟】

实际应用中,你需要借助Flask或者FastAPI让Agent对外提供服务接口。不过我们这里直接采用客户端程序做模拟。这个程序的输入有:

一个用户标识(模拟不同的登录用户)一个任务描述(模拟用户的任务要求)一个输入文件名(模拟用户上传的文件)

处理流程如下:

04

测试与改进

现在我们就完成了一个初具雏形的、支持多用户与容器环境的“Manus”,当然它的工具箱还不够丰富,任务规划能力也相对受限(ReAct),你需要在后期不断的完善。

我们做一些简单的测试验证:

" 帮我看一下youtube今天最火的视频有哪些?"

"演示汉诺塔算法的过程,并搜一下汉诺塔问题来源”

"解压我的zip文件,识别其中的PDF文件信息,输出到Excel中”

这个PDF是一张发票信息,因为我提示不够清楚,AI使用了普通的PDF解析,尽管信息被提取了出来,但并没有使用价值。

“创建一个测试的订单数据文件,模拟小米公司各种手机型号的销售数据,数据尽量仿真,至少100条数据”

“对我刚生成的模拟数据做个分析,输出一个分析图表到图片文件”

这里经历了多次调试。原因是大部分LLM会自作主张的假设数据格式直接进行分析,而不是首先学习文件中的数据内容与格式,然后选择合适的角度做分析。

【不足与后续改进】

首先是最大的问题,相信也是Agent的普遍问题:不可预测性。当然原因主要来自于LLM的不确定,体现在:任务规划:长距任务的合理规划上能力不足。子任务什么时候要拆分,什么时候要合并,特别是步骤多了以后,后期很容易失控。代码生成:很多通用任务依赖AI编程,这受限于LLM能力。常见问题是相似的任务有时候用方法A,有时候用方法B,导致过多的失败与反复迭代。

不可预测性很大程度上依赖于LLM能力的进化。可能的改进还有:

不直接依赖于ReAct思维链立即开始任务,而是借助LLM先生成全盘优化的任务执行计划,并在过程中迭代调整(Refine)。对常见类型的任务过程进行一定程度的“固化”,即给予LLM一定的任务执行“指南”。这个指南可以通过Prompt、RAG甚至微调的方式注入。企业环境下,针对业务场景可借助于Workflow编排来降低任务的不确定性,提高可预测性,因为对“通用性“要求没那么高。长期记忆能力。即能够超越单次Agent的使用来理解甚至预测用户的行为、个性与偏好,从而提高任务理解的准确性与客户体验。比如这样的任务:“到我常去的购物网站查询下最新的折扣信息”。更丰富的工具。依靠编码与浏览器是远远不够的,更何况这两种方式还存在一定的性能问题。很多任务需要更专一且高效的工具来完成,需要一个即插即用的让AI更方便的连接世界的手段(MCP?)异步的任务处理。提交任务后可以离开,并在任务结束后得到通知。任务过程中的人工参与。必要时任务可以暂停等待人工输入或者确认多用户环境下的性能优化。并发控制、容器管理机制、缓存机制等。

我们将在后期针对这里的优化方向展开更多实验,期望能够帮助到所有对LLM应用开发有兴趣的朋友,敬请关注!

本文源码获取方法:

公Z号发送消息"manus"。或:

来源:AI大模型应用实践一点号

相关推荐