- 博客(75)
- 资源 (14)
- 收藏
- 关注
原创 本地大模型编程实战(13)与外部工具交互(4)
在使用 `LLM(大语言模型)` 调用工具方法时,可能会在运行时才会将类似 用户ID 的数值传递给工具。 大多数情况下,此类值不应由 `LLM` 控制。允许 `LLM` 控制 用户ID **可能会导致安全风险**。 相反,`LLM` 应该只控制本应由 `LLM` 控制的工具参数,而其他参数(如用户ID)应由应用程序逻辑固定。本文将向您展示:如何防止模型生成某些工具参数并**在运行时直接注入**它们。
2025-02-11 18:57:27
850
原创 本地大模型编程实战(12)与外部工具交互(3)
本文将实践如何在 `LLM(大语言模型)` 调用工具函数时进行审核,即由人来确定是否应该调用工具函数。> 本次使用 `llama3.1` 和 `MFDoom/deepseek-r1-tool-calling:7b` 进行演练。 `deepseek-r1` 不支持 `langchain` 的 bind_tools 方法。
2025-02-09 11:26:28
850
原创 本地大模型编程实战(11)与外部工具交互(2)
在使用 `LLM(大语言模型)` 时,经常需要调用一些自定义的工具方法完成特定的任务,比如:执行一些特殊算法、查询天气预报、旅游线路等。 很多大模型都具备使用这些工具方法的能力,`Langchain` 也为这些调用提供了便利。
2025-02-09 11:24:31
2370
原创 本地大模型编程实战(10)与外部工具交互(1)
某些模型能够进行工具方法调用:生成用户自定义的方法的签名并调用它。一般来说,此交互过程主要包含下面几个步骤:- `LLM(大语言模型)` 根据用户的问题推理生成调用工具方法的名称和参数- 调用工具,返回简单的结果- 再次调用 `LLM` ,生成自然流畅的回答
2025-02-07 17:47:55
602
原创 本地大模型编程实战(09)自制聊天机器人(3)
本文将实现一个比较完善的聊天机器人的主要功能。包括:- 使用 `LangGraph` 构建聊天机器人- 自动裁剪聊天历史- 管理聊天会话的方法- 以流的方式输出回复
2025-02-07 17:41:31
2370
原创 本地大模型编程实战(08)自制聊天机器人(2)
本文将演示使用大语言模型自制聊天机器人。主要的内容有:- 使用 `LangGraph` 进一步完善聊天机器人- 使用提示词改变 `LLM` 的能力
2025-02-05 13:56:19
614
原创 本地大模型编程实战(07)自制聊天机器人(1)
本文将演示使用大语言模型自制聊天机器人。主要的内容有:- 如何让机器人具有记忆- 如何使用 `langgraph` 自动记录聊天历史
2025-02-05 13:53:00
985
原创 本地大模型编程实战(06)从文本中提取重要信息(2)
本文将演示使用大语言模型从文本中提炼结构化信息。这次我们不直接使用提示词,而是使用大模型的 `few-shot prompting` 特性,即使用很少的例子来引导大模型做推理。 我们将用 `llama3.1` 和 `deepseek` 做一个简单的对比。 > 由于 `langchain` 可能对不同大模型支持程度不同,不同大模型的特点也不同,所以这个对比并不能说明哪个模型更好。
2025-02-04 11:49:22
1041
原创 本地大模型编程实战(05)从文本中提取重要信息(1)
本文将演示使用大语言模型从文本中提炼结构化信息。 我们将用 `llama3.1` 和 `deepseek` 做一个简单的对比。> 由于 `langchain` 可能对不同大模型支持程度不同,不同大模型的特点也不同,所以这个对比并不能说明哪个模型更好。
2025-02-04 11:46:06
939
原创 本地大模型编程实战(04)给文本自动打标签
使用本地大模型可以根据需要给文本打标签,本文介绍了如何基于 `langchain` 和本地部署的大模型给文本打标签。> 本文使用 `llama3.1` 作为本地大模型,它的性能比非开源大模型要查一下,不过在我们可以调整提示词后,它也基本能达到要求。
2025-01-27 19:54:26
1218
原创 本地大模型编程实战(03)语义检索(2)
本文描述了如何使用 `Chroma` 对csv数据进行矢量化,并且将矢量存储在硬盘中,未来查询矢量数据时,直接从硬盘中读取矢量数据进行查询。 另外,如果数据量大一些,矢量化数据是很花时间的,我们将使用进度条显示嵌入csv的进度。
2025-01-26 23:40:46
960
原创 本地大模型编程实战(02)语义检索(1)
本文描述了如何使用 `langchain` 和 `大语言模型` 以及 `矢量数据库` 完成pdf内容的语义检索。 在对内容进行矢量化时使用了 `nomic-embed-text`,这个模型个头小,英文嵌入效果不错。 后面还将涉及到以下内容:- 文档和文档加载器- 文本分割器- 嵌入- 向量存储和检索器
2025-01-25 19:32:14
1064
原创 本地大模型编程实战(01)实现翻译功能
本文描述了如何使用大语言模型(`LLM`)实现基本的翻译功能,此翻译功能的特点是:无需指定源语言,只需要指定目标语言就可以进行翻译了。
2025-01-24 22:38:35
1476
原创 用图形验证码增强用户认证安全性[python+vuetify]
这里通过代码讲述了使用`python`生成以及校验图片验证码,增强用户认证安全性的过程。 客户端则使用 `vue3` 和 `vuetify3` 框架使用后台API生成的图片验证码。
2025-01-05 12:56:19
775
原创 [Elasticsearch]使用search_after实现深度分页[附源码]
`elasticsearch` 在使用 from + size 这种方式进行分页查询时,因为 `index.max_result_window` 的默认值是 10K,所以当查询的文档超过第10K个文档时,会报错:Result window is too large... 当然,我们可以调整`index.max_result_window`的大小,不过这种办法会导致查询效率降低和内存占用增加。本文讲述了在 `elasticsearch` 中包含几十万乃至上百万的大数据量时,使用 `search_afte
2025-01-02 08:58:08
780
原创 基于OAuth2.0和JWT规范实现安全易用的用户认证
遵循`OAuth2.0`和`JWT`规范实现用户认证,不但具有很好的实用性,还能提供很不错的安全保障。 本文结合实用的代码讲述了基于`OAuth2.0`和`JWT`,在前后端分离的系统中,实现用户使用方便而又安全可靠的用户认证的基本思路。
2025-01-01 18:48:58
1432
原创 vuetify3入门实战:开发一个待办事项系统
这是使用`vuetify3`可以开发的一个待办事项管理实例。 它主要包含事项概览、我的项目、我的团队。其中事项概览中以列表的方式列出所有的事项,在这里可以添加事项、对事项进行排序。
2024-12-19 15:53:32
1083
原创 vuetify3入门实战:实现登录功能
这是使用vuetify3可以开发的一个登录实例。 它包含了一个经典的包含系统消息、登录按钮、更换主题按钮的工具栏(toolbar)、轮播(carousel)和登录表单控件。
2024-12-18 23:28:46
1539
原创 vuetify3入门实战:做简单的相册
这是使用vuetify3可以开发的一个简单的相册,通过菜单可以控制相册以彩色或者黑白方式显示。 在这个例子中,我们主要使用 抽屉式导航(Navigation drawers) 做导航,使用栅格(Grids)显示相册图片。
2024-12-16 19:36:47
1186
原创 基于FastAPI使用JWT技术实现的OAuth2用户认证接口
本文阐述了如何基于FastAPI框架实现OAuth2用户认证,其中使用哈希算法对密码进行了加密,使用JWT持有令牌。 附带完整的代码,避免大家再次踩坑。
2024-12-01 15:45:42
1501
原创 基于FastAPI实现简单的微服务API网关
本文阐述了基于FastAPI实现一个API网关的详细步骤。这样未来可以不断的在服务端像搭积木一样添加各种服务。 我们即将实现下面的简单的微服务架构,目前它只实现了请求转发功能。
2024-11-14 13:10:47
1278
原创 用FastAPI和langchain做本地大模型的API
本文讲述了如何使用FastAPI和langchain框架,包装本地大模型llama3.1,实现语言翻译功能的API。 相对于Flask,使用FastAPI做接口要简便得多。
2024-11-05 19:28:12
1624
原创 使用Flask做langchain的API
本文讲述了如何使用一个利用本地大模型llama3.1实现语言翻译功能的API。 它用flask很轻松的将langchian服务开放为API,结合flasgger给文档添加注释并生成playground,并且使用jsonschema做json数据校验,轻松验证接口参数。
2024-11-03 12:53:11
1237
原创 使用LangServe做本地大模型的API
`LangServe` 是一个 `Python` 包,专门用于将基于 `LangChain` 的程序和链部署为生产就绪的 API。 本文通过一个简单的应用演示`LangServe`如何使用。
2024-10-28 08:49:29
580
原创 基于langchian和对话式RAG实现知识问答
本文概述了基于langchian框架和对话式增强生成技术实现知识问答。 具体来说,系统自动记录聊天历史,并把它作为上下文提供给大模型,这样它让大模型产生了“记忆”,可以“理解”和关联上下文,体验更好。
2024-10-27 14:37:12
519
原创 基于langchain和本地大模型以及会话式检索增强生成技术实现知识问答
本文讲述了基于langchian框架,使用本地部署的nomic-embed-text模型做嵌入检索、llama3.1做回答内容生成的知识问答系统实例。 通过对比测试使用历史聊天记录和不使用历史聊天记录(即:以往的问题和答案)两种情况,我们可以明显看出来使用历史聊天记录的优点:它让大模型产生了“记忆”,可以“理解”和关联上下文,体验更好。
2024-10-09 16:41:18
1134
原创 从零搭建基于langchain的本地大模型+本地向量数据库的RAG系统
这是从零开始搭建langchain本地化RAG服务(本地部署的lamma3.1+本地部署的chroma)的保姆级教程
2024-10-03 10:01:13
1001
原创 使用langchain和本地部署的lamma3+chroma做RAG
在做RAG(RAG,Retrieval Augmented Generation,即:增强生成)系统时,经常会遇到数据安全、隐私保护等问题,此时使用本地部署的大模型和本地部署的矢量数据库时很必要的
2024-10-03 09:54:55
1257
原创 在langchian中使用本地部署的llama3大模型
Ollama是一个工具和框架,主要用于本地部署和使用大语言模型(Large Language Models, LLMs)。它旨在帮助开发者和组织方便地在本地或私有环境中运行和交互这些模型,避免依赖外部API或云端服务,保护隐私并降低成本。langchain可以集成本地化大模型,实现智能问答等各种应用。
2024-10-03 09:45:08
634
转载 在Visual Studio Code中配置venv
相比其他环境管理工具,如conda,venv是Python内置的,轻量且容易上手,不需要额外安装和配置,特别适合一般的Python开发工作。 它对项目依赖的管理非常方便。
2024-10-03 09:35:19
1351
转载 大语言模型都能做什么
与一般的AI模型相比,大模型的参数特别多(通常在10亿以上),训练时需要大规模的数据(动辄百万计,往往还需要进行大量的人工标注),可见大模型的训练成本通常比较高昂。
2024-09-19 19:47:10
199
原创 大模型的最大特色:涌现能力
涌现能力是在模型参数增加到某一临界点后突然出现的,这些能力包括但不限于语言理解能力、生成能力、逻辑推理能力等,而这种能力是小模型所不具备的。 这也是为什么chat GPT出现后让人眼前一亮:和它聊天与真人无异,不像是机器了!这主要应该归功于大模型的涌现能力。
2024-09-19 19:42:46
2044
chatbox 1.17.0 web版本 docker镜像
2025-10-31
APOC(Awesome Procedures on Cypher)5.26.1
2025-04-25
在ASP.Net中通过cell-id和LAC获取位置信息
2010-12-30
自制单选(radiobox)和多选(checkbox)控件
2014-06-07
BugTracker.Net 3.5.7 中文版
2012-06-20
苏米团队账本 V0.51
2016-12-21
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅