LangChain+Fine-tune实现模型定制化

目录

前言

1 Prompt Engineering

2 LangChain

3 Fine-tuning

总结


前言

接上次的AI初步了解,继续探索一下大模型。LangChain+Fine-tune实现模型定制化。


1 Prompt Engineering

--如何适应大模型

 

 

 

 这里的model=gpt-3.5....这是默认的gpt模型(openai其实有很多大模型)。

messages就是输入的提问,temperature对应随机性,每次回答不一样。

多轮交互除了输入user的内容,也还要输入每轮model的回答。

大环境可以设定安全性问题等问题。

2 LangChain

--如何使用大模型

这里的i就是prompts输入,归一化 ;

根据要求选择不同的model;

解析结果,提取信息。

原始的数据有很多(source)

也有很多loaders,下图是一些文档类的loaders

 数据的预处理:

到这一步也不能直接使用,都还是人类语言,还需要处理(回溯算法),变成模型看懂的“特征”(feather),也就是张量 (tensor)。

 之后,

retrieve就是检索

3 Fine-tuning

--如何改变大模型

 太贵了

有全参数量和小参数量的分别。 

LoRA:

理智到大师。

 


总结

其实还是迷迷糊糊的,但大致了解了一下大模型的分类以及如果想要研究的话应该从哪些方面入手。之后有机会可以玩玩吧。

  • 14
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值