手把手教会你搭建属于自己的智能体

本期为大家介绍如何搭建自己的智能体,本期用到的工具是扣子(Coze),Coze 是一个由字节跳动推出的 AI 开发平台,主要用于快速构建、调试和部署基于人工智能的对话机器人(Bot)和智能体(Agent)。它类似于其他低代码/无代码 AI 平台,但更注重灵活性和扩展性,支持用户通过可视化工具或代码深度定制 AI 应用。

本期将演示如何通过Coze搭建地址标准化智能体,内容具体包括:注册Coze、创建知识库创建数据库自开发插件创建工作流以及创建智能体

   1、注册Coze

在首页点击登录,填写手机号收验证码即可完成注册和登录。

图片

   2、创建知识库

在工作空间中,点击资源库,然后点击资源即可创建知识库,Coze支持的知识库类型包括文档、表格和图片,可以导入本地文件,也可以导入在线资源或者是通过api导入。此处仅展示表格的导入和创建。

图片

拖入数据,此处以示例数据做展示

图片

配置表结构,注意表格知识库一定要有索引 

图片

预览,在导入文件时要注意编码,否则会出现乱码的情况,尤其是csv数据,建议导入前先另存为utf8编码的格式

图片

最后等待完成,点击确定即可

图片

导入完成后还可以向知识库中添加内容

图片

   3、创建数据库

首先填写数据库名称和说明

图片

然后添加数据库字段,前4个字段是系统默认创建的,点击新增可以添加自己的字段,点击保存即完成了数据表结构设计

图片

点击测试数据,选择批量导入,可以通过文件导入数据,建议点击下载模板,把数据粘贴进模板后导入,避免报错,一直点下一步即可完成数据导入。

图片

   4、自开发插件

其实工作流中可以通过代码节点去写代码,但是由于代码节点不一定支持特定的库或者模块,所以需要通过开发插件的方式去实现。此处需要写插件去判断点在哪个社区和镇街,后续会应用到工作流中。

输入名称后,选择插件的创建方式,一般选择云侧插件,其中基于已有服务创建是指你已经发布了一个接口,可以把已有的接口配置成插件;在Coze IDE中创建是指在Coze的在线编程页面去创建插件,你可以在线写代码,在线调试。除此之外还有一个端侧插件,端侧插件主要用于需要和硬件交互的情况,例如你对语音助手说播放音乐,助手调用手机的播放音乐方法进行播放,端侧插件的代码都在硬件侧,并且在创建时需要知道硬件支持哪些指令。

图片

页面中间可以编写代码,左下角可以添加依赖包,点击元数据可以配置输出和输出参数,最后在发布插件之前需要测试通过,点击右侧按钮可以进行测试。

图片

开发页面与本地编写代码的方式基本一致,唯一需要注意的是系统自带一个handler函数,这个函数可以理解为主函数,其主要作用是传递和获取参数,因为插件的输入一般来自工作流中上一步的输出,所以需要从外界获取输入参数的值。

   5、创建工作流

填写名称后即可创建工作流

图片

在下方点击添加节点即可向工作流中添加节点,可供添加的节点包括大模型、插件、工作流、业务逻辑、输入输出、会话管理、数据库等,具体可以自行探索。通过线将节点之间连接起来就构成了一个工作流,需要注意的是一个完整的工作流必须包含开始和结束节点,否则无法试运行也无法发布。

点击节点,在页面右侧可以对节点进行配置,包括配置节点的输入和输出,对于大模型节点可以选择模型以及配置模型技能和提示词;对于数据库查询节点可以配置查询条件,更多使方法可以自行探索。

图片

截图展示了一个地址标准化的工作流,包括了调用大模型进行初步标准化以及调用落点插件、判断点面关系插件、代码插件、数据库查询插件对结果进行辅助优化,最后再一次调用大模型对初步标准化结果和辅助优化结果进行整合输出。其中poi_to_geocode节点用于对地址进行落点,panduan节点用于判断点所属社区,代码节点用于简单的结果整合,输出非空结果,最后数据查询节点根据输入社区在数据库中查询对应镇街。

点击下方试运行可以对工作流进行测试,至此地址标准化工作流就算搭建完成了,如果对交互没有需求,此刻已经可以通过API对工作流进行调用。如果追求更好的交互体验就可以用智能体把工作流包起来。

   6、创建智能体

填写名称创建智能体

图片

在智能体编排页面,左侧是对智能体功能的提示词,通过输入提示词,你想实现的大部分功能就可以交给智能体实现。如果不知道怎么写提示词,可以先写一段话表述功能,再点击蓝色小星星,让系统帮你优化提示词。

页面中间是能力配置窗口,可以配置包括插件、工作流、数据库、知识库等各类功能,点击+号即可添加,由于主要功能已经通过工作流实现,所以此处只添加了工作流。

页面右侧是调试窗口,下方输入框可以上传文件以及输入文字,发送后会根据配置返回结果。

图片

编排完成后点击右上角发布按钮即可发布到项目商店,发布到项目商店的智能体可供其他人调用,此处的调用方式是通过窗口对话的方式。

图片

除此之外还可以通过API对智能体进行调用,需要注意的是只有在发布的时候选择了API调用才支持API调用,并且需要配置个人令牌。仿照官网示例,在使用时需要修改Authorization、bot_id以及stream,其中Authorization修改为配置好的个人令牌,bot_id修改为智能体编号,编号在智能体编排页面网址里,stream代表是否流式输出,建议设置为true。

图片

图片

图片

   后话

调用次数限制:

如果通过API调用会有次数限制,因此如果调用需求较大的情况建议尝试本地部署。

文档不全面:

尽管官方提供了使用指南,但是不够全面,例如对智能体调用的介绍,日常使用智能体时有上传文件是较为普遍的需求,但是官方文档仅介绍了常规调用方法。

 如何系统的去学习大模型LLM ?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

事实上,抢你饭碗的不是AI,而是会利用AI的人。

科大讯飞、阿里、华为等巨头公司发布AI产品后,很多中小企业也陆续进场!超高年薪,挖掘AI大模型人才! 如今大厂老板们,也更倾向于会AI的人,普通程序员,还有应对的机会吗?

与其焦虑……

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。

基于此,我用做产品的心态来打磨这份大模型教程,深挖痛点并持续修改了近70次后,终于把整个AI大模型的学习门槛,降到了最低!

在这个版本当中:

第一您不需要具备任何算法和数学的基础
第二不要求准备高配置的电脑
第三不必懂Python等任何编程语言

您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型教程已经给大家整理并打包,现在将这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

一、LLM大模型经典书籍

AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。

在这里插入图片描述

二、640套LLM大模型报告合集

这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)
在这里插入图片描述

三、LLM大模型系列视频教程

在这里插入图片描述

四、LLM大模型开源教程(LLaLA/Meta/chatglm/chatgpt)

在这里插入图片描述

五、AI产品经理大模型教程

在这里插入图片描述

LLM大模型学习路线 

阶段1:AI大模型时代的基础理解

  • 目标:了解AI大模型的基本概念、发展历程和核心原理。

  • 内容

    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
    • L1.4.1 知识大模型
    • L1.4.2 生产大模型
    • L1.4.3 模型工程方法论
    • L1.4.4 模型工程实践
    • L1.5 GPT应用案例

阶段2:AI大模型API应用开发工程

  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。

  • 内容

    • L2.1 API接口
    • L2.1.1 OpenAI API接口
    • L2.1.2 Python接口接入
    • L2.1.3 BOT工具类框架
    • L2.1.4 代码示例
    • L2.2 Prompt框架
    • L2.3 流水线工程
    • L2.4 总结与展望

阶段3:AI大模型应用架构实践

  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。

  • 内容

    • L3.1 Agent模型框架
    • L3.2 MetaGPT
    • L3.3 ChatGLM
    • L3.4 LLAMA
    • L3.5 其他大模型介绍

阶段4:AI大模型私有化部署

  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。

  • 内容

    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景

这份 LLM大模型资料 包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

### 配置智能体的详细指南 #### 了解DeepSeek及其优势 DeepSeek作为一款高性能且价格合理的AI大模型,在众多同类产品中脱颖而出,成为2025年初备受瞩目的存在[^2]。该平台不仅支持在线服务,还特别强调了本地部署的重要性,这对于重视数据隐私和安全性的用户来说尤为关键[^4]。 #### 准备工作环境 为了能够顺利地配置基于DeepSeek框架下的智能体,首先需要确保已经按照官方提供的说明完成了软件包的下载以及必要的依赖项安装过程[^1]。这一步骤通常涉及设置Python虚拟环境、pip工具以及其他可能被提及到的相关组件。 #### 安装与初始化 完成上述准备工作之后,下一步就是依据具体的操作手册来执行实际的安装流程。此过程中会涉及到命令行指令的应用,例如: ```bash git clone https://github.com/your-repo/deepseek.git cd deepseek pip install -r requirements.txt ``` 这些操作旨在获取最新的源代码副本并将所有必需的外部库加载至项目当中[^3]。 #### 创建自定义智能体 一旦基础架构搭建完毕,则可以根据业务场景的需求设计特定类型的代理程序。这里的关键在于理解如何利用API接口实现功能扩展,并结合具体的案例研究来进行实践探索。比如创建一个用于自然语言处理(NLP)任务的聊天机器人实例: ```python from deepseek import Agent, Environment env = Environment() agent = Agent(env) def on_message_received(message): response = agent.process_input(message) print(f"Response: {response}") on_message_received("你好,世界!") ``` 这段简单的脚本展示了怎样接收输入消息并通过调用`process_input()`方法生成相应的回复内容。 #### 测试与优化 最后但同样重要的是要经过充分测试以验证新建立起来的服务能否稳定运行并达到预期效果。期间可能会发现某些性能瓶颈或者逻辑错误等问题,这时就需要不断调整参数设定直至获得满意的结果为止。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值