李沐——大模型时代下做科研的四个思路

视频链接:大模型时代下做科研的四个思路
作者提到的四个思路主要包括:
1) PEFT(parameter efficient fine tuning)
顾名思义就是为了高效。高效的方法毫无疑问就是冻结大部分模型参数,只对部分模块做微调。以下图为例,只有标红的模块才会训练,这样比起全参数训练,大大的节省了资源。从现在看来,目前较火的微调方法是是lora,github地址为:https://github.com/microsoft/LoRA/tree/main
其中大多数的微调方法都封装到了https://github.com/hiyouga/LLaMA-Factory
而目前的思路可以是:找一个基础模型,设计一个特殊的模块,这个模块可以是为了特定任务也可以是通用任务,然后微调后对比实验效果与不微调的区别。
在这里插入图片描述
2)调用已训练好的模型做应用
直接利用预训练好的模型,不去做预训练,只去做funting,去扩展到各个不同的领域。
尽量选新的方法或者新的topic去做,因为这里可能没有成熟的数据集和 Benchmark,因此数据和 Setting 都可以自己选,不用担心比不过别人。例如In-Context Learning:上下文学习,Chain-of-thought prompting:思维链提示,Causal learning:因果学习

3)做即插即用的模块
比如作者团队的MixGen,因为在视觉领域数据增强非常有用,但在多模态中却很少有人用,因此作者吧图片-文本对用mixgen拓展,具体的方法为,图片就是两张图片mixup,文本是把两句话连接。这种思路非常简单,也证明了有效性

4)构建数据集,做分析为主的文章,写一篇综述论文
个人认为分析类文章和综述文章都需要有个人比较新颖的观点,需要阅读大量文章做积累,数据集的构建,也需要综合考虑多种因素,但是这个方向是耗费资源最少的

  • 5
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值