项目纪实
文章平均质量分 75
智能金融问答系统
一大口圆
这个作者很懒,什么都没留下…
展开
-
知识库功能的前后端
本功能支持用户上传一个文件,然后输入与该文件相关的问题,系统会给出相应的回答。如果用户不上传文件,直接询问问题,便会根据我们已有的数据库和问题给出对应的答案。同时,询问问题可以选择是否要携带自己的历史记录。我们也提供了一个接口,供用户与在线的智谱ai进行对话。实现过程### get_vectordb函数主要功能是根据指定的参数获取或创建一个向量数据库对象。向量数据库对象用于存储和查询文本嵌入(向量化的文本数据)。原创 2024-05-30 21:21:48 · 435 阅读 · 0 评论 -
输入股票生成研报
前端需要用户键盘输入一个股票代码,在前端进行格式判断,如果输入不是一个正确的股票代码,就显示没有这种次股票代码,如果代码正确,就可以转给后端,进行研报的生成。研报以一个pdf的形式传到前端,在页面对这个pdf进行预览并且提供下载功能。原创 2024-05-30 21:19:03 · 237 阅读 · 0 评论 -
前端完整实现
主界面基于Vue3的框架实现,主界面主要分为Header和主体两部分,每个功能做成一个“Basecard”模块,后续增删功能时便于修改由于在这里我们要实现一个交互式的界面,用Gradio编写更加简便,所以我选择通过router路由直接去访问编写好的Gradio页面1.create_db_info: 用于初始化知识库文件向量化。2.chat_qa_chain_self_answer: 带历史记录的问答链进行回答。3.qa_chain_self_answer: 不带历史记录的问答链进行回答。原创 2024-05-30 19:57:56 · 189 阅读 · 0 评论 -
阶段性总结
关键点一项目利用Langchain中的文本切割器完成知识库向量化操作前的文本分割,向量数据库使用高效的索引和查询算法来加速向量数据的存储和检索过程,快速的完成个人知识库数据建立与使用。关键点二项目对API进行了底层封装,用户可以避免复杂的封装细节,直接调用相应的大语言模型即可。关键点三项目对市场上稀缺的金融大模型进行研究开发,旨在服务金融爱好者和金融行业工作者日常研投、工作和金融资讯获取。原创 2024-05-30 19:17:59 · 678 阅读 · 0 评论 -
prompt
和。掌握这两点,对创建可靠的语言模型交互尤为重要。原创 2024-05-30 18:52:38 · 417 阅读 · 0 评论 -
4.应用层
我们基于 LangChain 提供的检索问答链,在 LLM 层、数据库层的基础上,实现了本项目检索问答链的封装。print(f"检索到的第{i}个内容: \n {doc.page_content}", end="\n-----------------------------------------------------\n")关于更多的 Memory 的使用,包括保留指定对话轮数、保存指定 token 数量、保存历史对话的总结摘要等内容,请参考 langchain 的 Memory 部分的相关文档。原创 2024-05-30 18:49:34 · 734 阅读 · 0 评论 -
3.数据库层
数据库层主要存放了向量数据库文件。同时,我们在该层实现了源数据处理、创建向量数据库的方法。原创 2024-05-30 18:42:05 · 691 阅读 · 0 评论 -
2.数据层
【代码】2.数据层。原创 2024-05-30 18:07:29 · 160 阅读 · 0 评论 -
1.LLM层
ChatGLM 系列模型,包括 ChatGLM-130B、ChatGLM-6B 和 ChatGLM2-6B(ChatGLM-6B 的升级版本)模型,支持相对复杂的自然语言指令,并且能够解决困难的推理类问题。其中,ChatGLM-6B 模型来自 Huggingface 上的下载量已经超过 300w(截至 2023 年 6 月 24 日统计数据),该模型在 Hugging Face (HF) 全球大模型下载榜中连续 12 天位居第一名,在国内外的开源社区中产生了较大的影响。值越大,会使输出更随机,更具创造性;原创 2024-05-30 18:04:49 · 1556 阅读 · 0 评论 -
智能金融分析查询研究问答系统
本项目旨在开发能够处理用户上传的金融文本与数据中的专业术语和复杂知识,用ai实现专家级别的查询和分析的金融问答大模型系统。基于大模型应用开发的教程,进行一定的封装完善得到的有知识库助手功能的金融对话大模型项目,核心是针对glm4大模型 API 实现了底层封装,基于 Langchain 搭建了可切换模型的检索问答链,并实现 Gradio 部署的个人轻量大模型应用。原创 2024-05-30 18:00:47 · 589 阅读 · 0 评论