![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
AI创业
ArchAliance
这个作者很懒,什么都没留下…
展开
-
ChatGPT跟踪:企业内的大模型AI场景与解决方案
大模型原创 2023-08-07 13:53:47 · 96 阅读 · 1 评论 -
大模型AI的真正价值
大模型价值原创 2023-08-07 13:53:09 · 146 阅读 · 1 评论 -
LangChain+LLM做知识库时,参数如何调优(4)
知识库或者客服,其要求就是知识库要细分,应用要垂直。根据实际场景来优化。例如客服场景:要求特定的问题回答要准确,而且问题是和公司业务强相关,非常的细分,那最好的就是FAQ库。整个架构模型核心点就是围绕持续沉淀FAQ来做的,大模型是在FAQ和转人工之间加了一层,不管是大模型提炼答案、用户反馈、人工维护都是让FAQ更丰富。因为我的本地TXT文件知识库是按照Q,A的形式组织的。生产的话,数据库选择PG比较合适,不管是关系型还是向量的数据都可以存储。通过开源项目里的issue去看,碰到的问题也是大同小异。原创 2023-07-24 07:30:00 · 292 阅读 · 0 评论 -
LangChain+LLM做知识库时,参数如何调优(3)
如何文本分割的时候,按照每行进行分割?因为我的本地TXT文件知识库是按照Q,A的形式组织的。也就是文本切片的时候按照每行进行切片。这样达到的效果是:用户提问题,根据相关度匹配向量库的Q,如果Q有多个则返回给用户问的哪个问题,如果Q只有1个,则通过Q在A数据库里搜索Q对应的A,A返回给用户。只做AQ里的Q的文本切割(一般用\n对内容简单的split即可)、向量化,AQ成对存放在数据库里。至于想显得智能些,FAQ里匹配不到用户问题时,再考虑用大模型,把用户问题抛给大模型并提示用户是机器人回答的。原创 2023-07-22 08:15:00 · 237 阅读 · 0 评论 -
LangChain+LLM做知识库时,参数如何调优(2)
搜索匹配:在get_knowledge_based_answer函数中,chunk_conent控制是否上下文关联(context_expand),chunk_size控制上下文关联时关联的幅度有多大。一个LangChain+大模型的知识库关键环节,包括:文档导入、文本切割、文本块向量化、提问向量化、文本块匹配、prompt拼装、大模型加工返回结果。VECTOR_SEARCH_SCORE_THRESHOLD是相关度过滤,比如设置300以下,那回答非常准确,不过这和问题的质量也有关系。原创 2023-07-21 14:36:03 · 1139 阅读 · 1 评论 -
ChatGPT衍生产品的商业机会
大模型的商业机会原创 2023-07-20 09:36:30 · 152 阅读 · 0 评论