![](https://img-blog.csdnimg.cn/b81bc52c770246858c0999ea567774e3.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
深入理解 ChatGPT
文章平均质量分 86
科技创新:涵盖人工智能、大数据、机器学习等领域,分享最新研究成果和实践经验。
文化探索:涵盖历史、哲学、文学、电影、音乐、美术等领域,分享不同文化的传统和发展历史。
个人成长:涵盖个人发展、人际关系、职业规划、心理健康等领域,分享专业建议和实用技巧,帮助实现自我提升和成长。
段智华
智华专注于GenAI/LLM大模型技术的研究,参与了7本书籍的写作,拥有3项专利,10多项软著,以及4篇IEEE国际会议论文。参与Gavin大咖主编,北京航空航天大学出版社2024年5月最新出版的2本图书著作:《Transformer&ChatGpt解密:原理、源码及案例》、《Transformer& Rasa 解密 原理、 源码及案例》,共撰写1948篇原创博客文章,涵盖Transformer、GPT-4、ChatGPT、Llama2/3、Langchain、Mistral、Mixtral、Rasa、AI机器学习、Spark大数据等主题。博客文章的总阅读量为310万次。
展开
-
大模型应用开发技术:时间旅行(七)
第七部分:时间旅行¶在典型的聊天机器人工作流程中,用户与机器人交互1次或多次以完成任务。在前面的部分中,我们看到了如何添加内存和一个人在回路中,以便能够检查我们的图形状态并手动覆盖状态以控制未来的响应。但是,如果您想让用户从以前的响应开始,然后“分支”探索一个单独的结果,该怎么办?或者,如果你希望用户能够“倒带”你的助手的工作,以修复一些错误或尝试不同的策略(在自治软件工程师等应用程序中很常见)?您可以使用LangGraph的内置“时间旅行”功能创建这些体验和更多体验。在本节中,您将通过使用原创 2024-06-23 10:11:03 · 272 阅读 · 0 评论 -
大模型应用开发技术:自定义状态
到目前为止,我们依赖于一个简单的状态(它只是一个消息列表!使用这个简单的状态可以走得很远,但是如果 想定义复杂的行为而不依赖于消息列表,则可以向状态添加其他字段。我们将用一个新节点扩展聊天机器人来说明这一点。在上面的例子中, 涉及到一个人:每当调用工具时,图总是中断。假设 希望 聊天机器人可以选择依赖人类。一种方法是创建一个 “human”节点,在此节点之前,图将始终停止。只有当LLM调用“人工”工具时, 才会执行此节点。原创 2024-06-23 09:16:51 · 139 阅读 · 0 评论 -
# 大模型应用开发技术: 手动更新状态 (五)
MultiAgent原创 2024-06-21 20:28:28 · 130 阅读 · 0 评论 -
大模型应用开发技术: Human-in-the-loop(四)
human in loop原创 2024-06-20 20:15:00 · 154 阅读 · 0 评论 -
大模型应用开发技术: 为聊天机器人添加内存(三)
LangGraph为聊天机器人添加内存原创 2024-06-20 19:30:00 · 224 阅读 · 0 评论 -
大模型应用开发技术:LangGraph 使用工具增强聊天机器人
")聊天机器人可以用来回答问题的页面摘要。接下来, 开始定义图。在LLM上添加了bind_tools。这让LLM知道正确的JSON格式,如果它想使用搜索引擎。接下来 需要创建一个函数,以便在调用这些工具时实际运行它们。将通过将工具添加到一个新节点来实现这一点。下面,实现一个BasicToolNode,它检查状态中最近的消息,如果消息包含tool_calls,则调用工具。原创 2024-06-20 19:30:00 · 167 阅读 · 0 评论 -
大模型应用开发技术:LangChain+LangGraph+LangSmith接入Ernie Speed 大模型 Multi-Agent框架案例实战(三)实战代码
LangGraph LangChain Multi Agent原创 2024-06-19 14:55:44 · 136 阅读 · 0 评论 -
大模型应用开发技术:LangChain+LangGraph+LangSmith接入Ernie Speed 大模型 Multi-Agent框架案例实战(二)
LangChain+LangGraph+LangSmith接入Ernie Speed 大模型 Multi-Agent框架案例实战(二)代码实战原创 2024-06-19 19:30:00 · 49 阅读 · 0 评论 -
Llama模型家族之拒绝抽样(Rejection Sampling)(八)代码实现
Llama模型家族之拒绝抽样(Rejection Sampling)(八)代码实现原创 2024-06-08 12:13:47 · 40 阅读 · 0 评论 -
Llama模型家族之使用 Supervised Fine-Tuning(SFT)微调预训练Llama 3 语言模型(六)Llama 3 已训练的大模型合并LoRA权重参数
1、Llama开源模型家族大模型技术、工具和多模态详解:学员将深入了解Meta Llama 3的创新之处,比如其在语言模型技术上的突破,并学习到如何在Llama 3中构建trust and safety AI。8、Llama 3中的DPO原理、算法、组件及具体实现及算法进阶:学习Llama 3中结合使用PPO和DPO算法,剖析DPO的原理和工作机制,详细解析DPO中的关键算法组件,并通过综合项目八从零开始动手实现和测试DPO算法,同时课程将解密DPO进阶技术Iterative DPO及IPO算法。原创 2024-05-24 20:15:00 · 172 阅读 · 0 评论 -
大模型之使用PyTorch编写Meta的Llama 3实际功能代码(六)
1、Llama开源模型家族大模型技术、工具和多模态详解:学员将深入了解Meta Llama 3的创新之处,比如其在语言模型技术上的突破,并学习到如何在Llama 3中构建trust and safety AI。8、Llama 3中的DPO原理、算法、组件及具体实现及算法进阶:学习Llama 3中结合使用PPO和DPO算法,剖析DPO的原理和工作机制,详细解析DPO中的关键算法组件,并通过综合项目八从零开始动手实现和测试DPO算法,同时课程将解密DPO进阶技术Iterative DPO及IPO算法。原创 2024-05-20 19:30:00 · 621 阅读 · 0 评论 -
大模型之使用PyTorch编写Meta的Llama 3实际功能代码(五)训练并测试你自己的 minLlama3
1、Llama开源模型家族大模型技术、工具和多模态详解:学员将深入了解Meta Llama 3的创新之处,比如其在语言模型技术上的突破,并学习到如何在Llama 3中构建trust and safety AI。8、Llama 3中的DPO原理、算法、组件及具体实现及算法进阶:学习Llama 3中结合使用PPO和DPO算法,剖析DPO的原理和工作机制,详细解析DPO中的关键算法组件,并通过综合项目八从零开始动手实现和测试DPO算法,同时课程将解密DPO进阶技术Iterative DPO及IPO算法。原创 2024-05-20 19:30:00 · 102 阅读 · 0 评论 -
大模型之使用PyTorch编写Meta的Llama 3实际功能代码(四) 构建 Llama3 类模型本身
1、Llama开源模型家族大模型技术、工具和多模态详解:学员将深入了解Meta Llama 3的创新之处,比如其在语言模型技术上的突破,并学习到如何在Llama 3中构建trust and safety AI。8、Llama 3中的DPO原理、算法、组件及具体实现及算法进阶:学习Llama 3中结合使用PPO和DPO算法,剖析DPO的原理和工作机制,详细解析DPO中的关键算法组件,并通过综合项目八从零开始动手实现和测试DPO算法,同时课程将解密DPO进阶技术Iterative DPO及IPO算法。原创 2024-05-20 19:30:00 · 84 阅读 · 0 评论 -
大模型之使用PyTorch编写Meta的Llama 3实际功能代码(三)
1、Llama开源模型家族大模型技术、工具和多模态详解:学员将深入了解Meta Llama 3的创新之处,比如其在语言模型技术上的突破,并学习到如何在Llama 3中构建trust and safety AI。8、Llama 3中的DPO原理、算法、组件及具体实现及算法进阶:学习Llama 3中结合使用PPO和DPO算法,剖析DPO的原理和工作机制,详细解析DPO中的关键算法组件,并通过综合项目八从零开始动手实现和测试DPO算法,同时课程将解密DPO进阶技术Iterative DPO及IPO算法。原创 2024-05-20 19:30:00 · 125 阅读 · 0 评论 -
大模型之使用PyTorch编写Meta的Llama 3实际功能代码(二)
1、Llama开源模型家族大模型技术、工具和多模态详解:学员将深入了解Meta Llama 3的创新之处,比如其在语言模型技术上的突破,并学习到如何在Llama 3中构建trust and safety AI。8、Llama 3中的DPO原理、算法、组件及具体实现及算法进阶:学习Llama 3中结合使用PPO和DPO算法,剖析DPO的原理和工作机制,详细解析DPO中的关键算法组件,并通过综合项目八从零开始动手实现和测试DPO算法,同时课程将解密DPO进阶技术Iterative DPO及IPO算法。原创 2024-05-20 19:30:00 · 113 阅读 · 0 评论 -
大模型之使用PyTorch编写Meta的Llama 3实际功能代码(一)
1、Llama开源模型家族大模型技术、工具和多模态详解:学员将深入了解Meta Llama 3的创新之处,比如其在语言模型技术上的突破,并学习到如何在Llama 3中构建trust and safety AI。8、Llama 3中的DPO原理、算法、组件及具体实现及算法进阶:学习Llama 3中结合使用PPO和DPO算法,剖析DPO的原理和工作机制,详细解析DPO中的关键算法组件,并通过综合项目八从零开始动手实现和测试DPO算法,同时课程将解密DPO进阶技术Iterative DPO及IPO算法。原创 2024-05-19 21:40:34 · 74 阅读 · 0 评论 -
大模型之一步一步使用PyTorch编写Meta的Llama 3代码(十)残差连接及SwiGLU FFN
基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一)基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二)基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (三)基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (四)基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (五)基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (六)基于 L原创 2024-05-19 20:17:22 · 67 阅读 · 0 评论 -
大模型之一步一步使用PyTorch编写Meta的Llama 3代码(九) 计算自注意力
1、Llama开源模型家族大模型技术、工具和多模态详解:学员将深入了解Meta Llama 3的创新之处,比如其在语言模型技术上的突破,并学习到如何在Llama 3中构建trust and safety AI。8、Llama 3中的DPO原理、算法、组件及具体实现及算法进阶:学习Llama 3中结合使用PPO和DPO算法,剖析DPO的原理和工作机制,详细解析DPO中的关键算法组件,并通过综合项目八从零开始动手实现和测试DPO算法,同时课程将解密DPO进阶技术Iterative DPO及IPO算法。原创 2024-05-19 19:26:11 · 82 阅读 · 0 评论 -
大模型之一步一步使用PyTorch编写Meta的Llama 3代码(七)初始化多查询注意力
1、Llama开源模型家族大模型技术、工具和多模态详解:学员将深入了解Meta Llama 3的创新之处,比如其在语言模型技术上的突破,并学习到如何在Llama 3中构建trust and safety AI。8、Llama 3中的DPO原理、算法、组件及具体实现及算法进阶:学习Llama 3中结合使用PPO和DPO算法,剖析DPO的原理和工作机制,详细解析DPO中的关键算法组件,并通过综合项目八从零开始动手实现和测试DPO算法,同时课程将解密DPO进阶技术Iterative DPO及IPO算法。原创 2024-05-19 11:23:12 · 86 阅读 · 0 评论 -
大模型之一步一步使用PyTorch编写Meta的Llama 3代码(六) 首次归一化:均方根归一化(RMSNorm)
基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一)基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二)基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (三)基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (四)基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (五)基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (六)基于 L原创 2024-05-19 10:50:55 · 74 阅读 · 0 评论 -
大模型之一步一步使用PyTorch编写Meta的Llama 3代码(五)
因果掩码与RoPE嵌入类似,是一种可以预先创建并在模型的每一层中重复使用的注意力机制组件。在标准的注意力机制中,每个标记(token)都可以关注序列中的任何其他标记。这种设计对于一些模型类型来说是可行甚至首选的,但对于自回归模型来说,这种自由的注意力模式会带来问题。原创 2024-05-19 10:12:21 · 72 阅读 · 0 评论 -
大模型之一步一步使用PyTorch编写Meta的Llama 3代码(四)
1、Llama开源模型家族大模型技术、工具和多模态详解:学员将深入了解Meta Llama 3的创新之处,比如其在语言模型技术上的突破,并学习到如何在Llama 3中构建trust and safety AI。8、Llama 3中的DPO原理、算法、组件及具体实现及算法进阶:学习Llama 3中结合使用PPO和DPO算法,剖析DPO的原理和工作机制,详细解析DPO中的关键算法组件,并通过综合项目八从零开始动手实现和测试DPO算法,同时课程将解密DPO进阶技术Iterative DPO及IPO算法。原创 2024-05-19 09:57:32 · 116 阅读 · 0 评论 -
大模型之一步一步使用PyTorch编写Meta的Llama 3代码(三)
1、Llama开源模型家族大模型技术、工具和多模态详解:学员将深入了解Meta Llama 3的创新之处,比如其在语言模型技术上的突破,并学习到如何在Llama 3中构建trust and safety AI。8、Llama 3中的DPO原理、算法、组件及具体实现及算法进阶:学习Llama 3中结合使用PPO和DPO算法,剖析DPO的原理和工作机制,详细解析DPO中的关键算法组件,并通过综合项目八从零开始动手实现和测试DPO算法,同时课程将解密DPO进阶技术Iterative DPO及IPO算法。原创 2024-05-19 09:24:48 · 108 阅读 · 0 评论 -
大模型之一步一步使用PyTorch编写Meta的Llama 3代码(二)
1、Llama开源模型家族大模型技术、工具和多模态详解:学员将深入了解Meta Llama 3的创新之处,比如其在语言模型技术上的突破,并学习到如何在Llama 3中构建trust and safety AI。8、Llama 3中的DPO原理、算法、组件及具体实现及算法进阶:学习Llama 3中结合使用PPO和DPO算法,剖析DPO的原理和工作机制,详细解析DPO中的关键算法组件,并通过综合项目八从零开始动手实现和测试DPO算法,同时课程将解密DPO进阶技术Iterative DPO及IPO算法。原创 2024-05-19 09:03:50 · 71 阅读 · 0 评论 -
大模型之一步一步使用PyTorch编写Meta的Llama 3代码(一)
1、Llama开源模型家族大模型技术、工具和多模态详解:学员将深入了解Meta Llama 3的创新之处,比如其在语言模型技术上的突破,并学习到如何在Llama 3中构建trust and safety AI。8、Llama 3中的DPO原理、算法、组件及具体实现及算法进阶:学习Llama 3中结合使用PPO和DPO算法,剖析DPO的原理和工作机制,详细解析DPO中的关键算法组件,并通过综合项目八从零开始动手实现和测试DPO算法,同时课程将解密DPO进阶技术Iterative DPO及IPO算法。原创 2024-05-19 07:00:57 · 115 阅读 · 0 评论 -
大模型之深入理解Transformer Layer Normalization(三)
1、Llama开源模型家族大模型技术、工具和多模态详解:学员将深入了解Meta Llama 3的创新之处,比如其在语言模型技术上的突破,并学习到如何在Llama 3中构建trust and safety AI。8、Llama 3中的DPO原理、算法、组件及具体实现及算法进阶:学习Llama 3中结合使用PPO和DPO算法,剖析DPO的原理和工作机制,详细解析DPO中的关键算法组件,并通过综合项目八从零开始动手实现和测试DPO算法,同时课程将解密DPO进阶技术Iterative DPO及IPO算法。原创 2024-05-18 21:55:23 · 34 阅读 · 0 评论 -
大模型之深入理解Transformer Layer Normalization(二)
1、Llama开源模型家族大模型技术、工具和多模态详解:学员将深入了解Meta Llama 3的创新之处,比如其在语言模型技术上的突破,并学习到如何在Llama 3中构建trust and safety AI。8、Llama 3中的DPO原理、算法、组件及具体实现及算法进阶:学习Llama 3中结合使用PPO和DPO算法,剖析DPO的原理和工作机制,详细解析DPO中的关键算法组件,并通过综合项目八从零开始动手实现和测试DPO算法,同时课程将解密DPO进阶技术Iterative DPO及IPO算法。原创 2024-05-18 21:26:50 · 45 阅读 · 0 评论 -
大模型之深入理解Transformer Layer Normalization(一)
Llama 3 是一个在 15T 标记上训练的开源模型(数据比其前身 Llama 2 多 7 倍),与一些最好的专有模型(如 GPT4)相当。在架构上,Llama 系列模型与标准 Transformer 不同,它利用仅解码器结构来跨 8B 到 70B 参数的多种配置进行下一个标记预测。其平衡了计算效率和深入的语言理解,为各种应用提供量身定制的解决方案。原创 2024-05-18 16:57:38 · 54 阅读 · 0 评论 -
构建安全的GenAI/LLMs核心技术解密之大模型对抗攻击(五)
构建安全的GenAI/LLMs核心技术解密之大模型对抗攻击(五)原创 2024-05-16 19:30:00 · 123 阅读 · 0 评论 -
构建安全的GenAI/LLMs核心技术解密之大模型对抗攻击(四)
1、Llama开源模型家族大模型技术、工具和多模态详解:学员将深入了解Meta Llama 3的创新之处,比如其在语言模型技术上的突破,并学习到如何在Llama 3中构建trust and safety AI。8、Llama 3中的DPO原理、算法、组件及具体实现及算法进阶:学习Llama 3中结合使用PPO和DPO算法,剖析DPO的原理和工作机制,详细解析DPO中的关键算法组件,并通过综合项目八从零开始动手实现和测试DPO算法,同时课程将解密DPO进阶技术Iterative DPO及IPO算法。原创 2024-05-15 20:15:00 · 126 阅读 · 0 评论 -
构建安全的GenAI/LLMs核心技术解密之大模型对抗攻击(三)
1、Llama开源模型家族大模型技术、工具和多模态详解:学员将深入了解Meta Llama 3的创新之处,比如其在语言模型技术上的突破,并学习到如何在Llama 3中构建trust and safety AI。8、Llama 3中的DPO原理、算法、组件及具体实现及算法进阶:学习Llama 3中结合使用PPO和DPO算法,剖析DPO的原理和工作机制,详细解析DPO中的关键算法组件,并通过综合项目八从零开始动手实现和测试DPO算法,同时课程将解密DPO进阶技术Iterative DPO及IPO算法。原创 2024-05-15 19:45:00 · 128 阅读 · 0 评论 -
构建安全的GenAI/LLMs核心技术解密之大模型对抗攻击(二)
构建安全的GenAI/LLMs核心技术解密之大模型对抗攻击(二)原创 2024-05-15 19:45:00 · 117 阅读 · 1 评论 -
构建安全的GenAI/LLMs核心技术解密之大模型对抗攻击(一)
尽管他们的攻击序列仅在开源模型上进行训练,但它们表现出对其他商业模型的可移植性,这表明对开源模型的白盒攻击对于私有模型可能是有效的,特别是当底层训练数据重叠时。8、Llama 3中的DPO原理、算法、组件及具体实现及算法进阶:学习Llama 3中结合使用PPO和DPO算法,剖析DPO的原理和工作机制,详细解析DPO中的关键算法组件,并通过综合项目八从零开始动手实现和测试DPO算法,同时课程将解密DPO进阶技术Iterative DPO及IPO算法。通过项目二逐行剖析Llama 3的源码,加深对技术的理解。原创 2024-05-15 19:30:00 · 121 阅读 · 0 评论 -
基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (十)
Mialon 等人对增强语言模型的调查。 (2023)广泛涵盖了多种类别的语言模型,并增强了推理技能和使用外部工具的能力。原创 2024-05-14 19:30:00 · 131 阅读 · 1 评论 -
基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (九)
大家继续看一个的文档。原创 2024-05-13 19:30:00 · 241 阅读 · 0 评论 -
基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (八)
大家继续看一个的文档。原创 2024-05-13 19:30:00 · 167 阅读 · 0 评论 -
基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (七)
大家看一个的文档。提示工程,也称为上下文提示,是指如何与 LLM 通信以引导其行为以获得所需结果,而不更新模型权重的方法。这是一门经验科学,不同模型的即时工程方法的效果可能差异很大,因此需要大量的实验和启发式方法。这篇文章只关注自回归语言模型的提示词工程,没有涉及完形填空测试、图像生成或多模态模型。提示词工程的核心目标是对齐和模型可控。在OpenAI公司的AI经理 Lilian Weng看来,一些快速的工程论文不值得八页长,因为这些技巧可以用一句话或几句话来解释,剩下的都是关于基准测试的。原创 2024-05-13 19:30:00 · 368 阅读 · 0 评论 -
基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (六)
大家继续看的文档内容。原创 2024-05-13 19:30:00 · 107 阅读 · 0 评论 -
基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (五)
基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (五)原创 2024-05-13 19:30:00 · 62 阅读 · 0 评论 -
大模型微调实战之 Transformer 强化学习(TRL Reinforcement Learning)(五)用 ORPO 将 Llama 3 的性能提升到新高度
大模型微调实战之 Transformer 强化学习(TRL Reinforcement Learning)(五)用 ORPO 将 Llama 3 的性能提升到新高度尽管最近的语言模型偏好对齐算法展示了有希望的结果,但监督式微调(SFT)对于实现成功的收敛仍然至关重要。在本文中,我们研究了SFT在偏好对齐背景下的关键作用,强调对于不受青睐的生成风格只需轻微的惩罚就足以实现偏好对齐的SFT。基于这一基础,我们引入了一个简单且创新的无需参考模型的单一几率比偏好优化算法,即ORPO,消除了额外偏好对齐阶段的必要性。原创 2024-04-28 20:45:00 · 152 阅读 · 0 评论