AI
文章平均质量分 96
学习实践
scl、
回首往昔 更进一步 ---工作1年的快乐风男♂
展开
-
AI实践与学习4_大模型之检索增强生成RAG实践
论文Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks (知识密集型 NLP 任务的检索增强生成)作者们探讨了如何通过结合预训练的语言模型和非参数记忆(即检索机制)来提高自然语言处理(NLP)任务的性能,特别是在需要大量知识密集型任务中。预训练的神经语言模型已经显示出从数据中学习大量深入知识的能力,但这些模型无法轻松扩展或修改它们的记忆,也不能直接提供对其预测的洞察,有时还可能产生“幻觉”。原创 2024-04-14 19:40:07 · 904 阅读 · 0 评论 -
AI实践于学习3_大模型之AI解题提示词优化实践
提示词只是让LLM具有一定的推理能力,并不能直接提高模型能力,可以借助CoT思维链、提示词规则一定程度微调模型。尽量使用新模型,通用性能更好,支持提示词规则更多。原创 2024-02-02 09:24:18 · 750 阅读 · 0 评论 -
AI实践与学习2_大模型之AI解题提示词设计实践分享(LLM基本原理通俗理解)
想要GPT模型回答的更好,更好的应用在业务场景中,需要考虑Prompt的写法规则、模型参数、渲染方式(流式响应)等下面主要结合开源文档梳理一些写Prompt的一些技巧。原创 2023-11-19 21:49:39 · 1822 阅读 · 0 评论 -
AI实践与学习1_NLP文本特征提取以及Milvus向量数据库实践
随着NLP预训练模型(大模型)以及多模态研究领域的发展,向量数据库被使用的越来越多。在XOP亿级题库业务背景下,对于试题召回搜索单单靠着ES集群已经出现性能瓶颈,因此需要预研其他技术方案提高试题搜索召回率。现一个方案就是使用Bert等模型提取试题题干特征,然后存储到向量数据库,检索试题先走向量数据库,拿到具体的试题ID等信息在走ES进行相似题召回,从而提高搜索的性能。需要考虑的就是特征提取的效率,Milvus的性能(比较吃服务器资源),然后进行评估。原创 2023-11-19 21:38:11 · 1758 阅读 · 2 评论