书生实战营第三期L1-RAG

任务

基于 LlamaIndex 构建自己的 RAG 知识库,寻找一个问题 A 在使用 LlamaIndex 之前InternLM2-Chat-1.8B模型不会回答,借助 LlamaIndex 后 InternLM2-Chat-1.8B 模型具备回答 A 的能力。

实践

步骤一:启动虚拟环境,安装 Llamaindex

conda activate your_env_name
pip install einops
pip install  protobuf

pip install llama-index==0.10.38 llama-index-llms-huggingface==0.2.0 "transformers[torch]==4.41.1" "huggingface_hub[inference]==0.23.1" huggingface_hub==0.23.1 sentence-transformers==2.7.0 sentencepiece==0.2.0

步骤二:下载 Sentence Transformer 模型;下载 NLTK 相关资源

步骤三:LlamaIndex HuggingFaceLLM

运行脚本

python llamaindex_internlm.py

回答的效果并不好,并不是我们想要的xtuner。

步骤四: LlamaIndex RAG

创建RAG知识库

借助RAG技术后,就能获得我们想要的答案了

步骤五:LlamaIndex web

 

  • 3
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值