![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
llm-universe
文章平均质量分 97
是菜鸡小小陈啊
这个作者很懒,什么都没留下…
展开
-
llm-universe | 五. 系统评估与优化
在构建LLM应用程序时,会经历以下流程:①少样本调整Prompt②Bad Case定向优化;③模型性能与开发成本的权衡2.评估方法在具体的大模型应用开发中,我们可以找到 Bad Cases,并不断针对性优化 Prompt 或检索架构来解决 Bad Cases,从而优化系统的表现。发现Bad Case并将每个Bad Case加入验证集。针对性调整对应的Prompt并检索架构。每次优化后重新验证整个验证集,确保原有Good Case不受影响。原创 2024-07-02 21:56:59 · 586 阅读 · 0 评论 -
llm-universe | 四. 构建RAG应用
Streamlit 是一种快速便捷的方法,可以直接在*Python 中通过友好的 Web 界面演示机器学习模型*。Streamlit 提供了一组简单而强大的基础模块,用于构建数据应用程序:st.write():这是最基本的模块之一,用于在应用程序中呈现文本、图像、表格等内容。st.title()、st.header()、st.subheader():这些模块用于添加标题、子标题和分组标题,以组织应用程序的布局。原创 2024-06-26 22:21:05 · 632 阅读 · 0 评论 -
llm-universe | 三. 搭建知识库
因此,在构建向量知识库的过程中,往往需要对文档进行分割,将单个文档按长度或者按固定的规则分割成若干个 chunk,然后将每个 chunk 转化为词向量,存储到向量数据库中。1.词向量比文字更适合检索。词向量中包含了原文本的语义信息,可以通过计算问题与数据库中数据的点积、余弦距离、欧几里得距离等指标,直接获取问题与数据在语义层面上的相似度;在检索时,我们会以 chunk 作为检索的元单位,也就是每一次检索到 k 个 chunk 作为模型可以参考来回答用户问题的知识,这个 k 是我们可以自由设定的。原创 2024-06-25 01:08:24 · 825 阅读 · 0 评论 -
llm-universe | 二. 使用 LLM API 开发应用
具体来说,在使用 ChatGPT API 时,你可以设置两种 Prompt:一种是 System Prompt,该种 Prompt 内容会在整个会话过程中持久地影响模型的回复,且相比于普通 Prompt 具有更高的重要性;Temperature 一般取值在 0~1 之间,当取值较低接近 0 时,预测的随机性会较低,产生更保守、可预测的文本,不太可能生成意想不到或不寻常的词。当取值较高接近 1 时,预测的随机性会较高,所有词被选择的可能性更大,会产生更有创意、多样化的文本,更有可能生成不寻常或意想不到的词。原创 2024-06-18 22:06:50 · 610 阅读 · 0 评论 -
llm-universe | 一. LLM 理论知识
大型语言模型(LLM)相较于传统的语言模型具有更强大的能力,然而在某些情况下,它们仍可能无法提供准确的答案。检索增强生成(RAG, Retrieval-Augmented Generation)。该架构巧妙地整合了从庞大知识库中检索到的相关信息,并以此为基础,指导大型语言模型生成更为精准的答案,从而显著提升了回答的准确性与深度。LangChain 框架是一个开源工具,充分利用了大型语言模型的强大能力,以便开发各种下游应用。它的目标是为各种大型语言模型应用提供通用接口,从而简化应用程序的开发流程。原创 2024-06-18 21:28:37 · 1255 阅读 · 0 评论