Manus+Ollama实现本地大模型部署和应用测试

       这几天Manus即DeepSeek后又突然火爆,我也进行了跟踪测试,特记录一下分享给大家,目前来看,Manus的确是一个可以进行任务分解的自动化解决方案,将其他AI需要多次繁杂的迭代对话做了较大的改进,相当于用户抛出一个问题或者关注的主题/任务,剩余工作让Manus自己找素材、找资料、找工具,进行汇总润色测试和验证,最后为用户提供的最终成果,目前测试的中间步骤用户是无法介入的,或者通过用户在提需求时利用约束进行引导,同时,目前只能支持网页和python execute等方式,其他方式还不支持,后续AI在应用场景落地过程中,各个环节都需要具体问题具体分析,进行不同程度的创新,希望后续Manus支持国内各大搜索引擎,支持多种插件等,同时支持用户自定义扩展软件/模块等,支持多模态数据的接入和生成等等。因此,AI落地应用研发的路还较长,需要大家共同努力,通过AI Agent落地到各行各业、千家万户。

一、下载Manus和Ollama

Manus请去github源上下载。解压后按照说明进行python环境的配置和依赖库安装即可。

ollama下载和安装配置详见我的其他文章或者其他类似文章。

二、Ollama配置

1.安装大模型,运行命令:ollama run qwen2.5:7b,注意:这里记得选择支持function call的大模型哦。
2.测试ollama是否正常:http://localhost:11434/,返回正常即可。
3.配置api-key方式如下:
Windows:通过环境变量配置OLLAMA_API_KEY=sk-123456
Linux:通过命令行配置或修改.bashrc文件,命令为: export OLLAMA_API_KEY=sk-123456
4.重启ollama即可

三、Manus配置

打开第一步下载的源码文件,解压后进入到OpenManus\config,复制config.example.toml文件,并改名为config.toml,然后修改里面内容为以下内容。

# Global LLM configuration  
[llm]  
model = "qwen2.5:7b"  
base_url = "http://localhost:11434/v1"  
api_key = "sk-123456"  # 这个key要和前面第二步的配置一样
max_tokens = 4096  
temperature = 0.0
四、应用测试

进入到OpenManus目录,运行如下命令进行测试

# 稳定版本运行,建议用这个。
python main.py
# 开发版本运行
python run_flow.py

示例:请编写一个计算器

五、其他注意事项

1.由于默认Manus会用到googlesearch,因此需要大家科学上网才能测试,期待后续支持国内各大搜索引擎。
2.Linux中记得用source命令让OLLAMA_API_KEY环境变量起效。

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

一望无际的大草原

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值