校招生做大模型,选预训练还是SFT?

我推荐选 pretrain,理由如下:

pretrain 提高工程能力,sft 提高认知能力

作为校招新人,你的当务之急只有一条:**提升工程代码能力!**我们拆解一下两个团队所需要的技能,你判断下哪个提升代码能力更快。

在 pretrain 团队,你的必修课有:爬取互联网数据,大规模数据清洗与去重(hadoop、spark等),配置各种 torch 和 cuda 环境,搞懂、修改、优化 megatron 的代码,熟练 debug 多机通讯报错,成熟的炼丹技巧(数据配比,学习率,优化器,课程学习,分析 loss 曲线、scaling_law),跑通各 benchmark 验证模型能力;

在 sft 团队,训练框架和炼丹技巧只属于选修课,往往公司不给你时间学习,你的必修课大概只包含以下内容:手动标数据,用 gpt4 标数据,教会标注人员标数据,利用用户反馈标数据,根据实验结果优化数据,参考论文去合成数据。

pretrain 转 sft 的难度,小于 sft 转 pretrain 的难度

基于两个方向的必修课不一样,pretrain 团队的同学能轻松上手 sft 的工作,sft 团队的同学则不能快速接手 pretrain 的工作。毕竟,两个团队核心技术不同:

  • pretrain 的核心技术:训练代码

  • sft 的核心技术:训练数据

所以,当你从 pretrain 转去做 sft,花一天时间看一下训练数据,就可以开始干活了;但当你从 sft 转去做 pretrain,你可能得花两周时间学习 megatron,才能开始干活。

pretrain 的杂活比 sft 的杂活更能锻炼新人

前面列举了两个方向的工作内容,假设你作为新人只配去做数据工作这种杂活,那我们就再来仔细看下两个团队的杂活都是什么?

  • pretrain 的杂活是从海量较脏的互联网数据中清洗出有意义的、干净的训练数据。大概包括:训个小模型给数据打分,写大量规则去除网页文档里的垃圾语料,研究某个 domain 数据的数据特征并想办法过滤该 domain 数据;

  • sft 的杂活大概是:手动标数据,不断拿 GPT4 试出效果最好的 prompt 来标数据。

言尽于此,哪个杂活更能锻炼人我就不再分析了。

新人应该选最难的工作

pretrain 方向的最大痛点是什么?

短期内没有收益、长期训不过 llama、qwen,老板会选择拥抱开源。但是,你是校招新人,他不敢裁你。趁着你有“校招生”这个护身符,去做最难的工作、快速成长自己,丰满羽翼,有社会舆论和国家政策保护在,你只要别乱执行 rm -rf *,就都是安全的。

再过三两年,可能你就不能选有技术的活,而只能选有收益的活了。


我并没有说 sft 都是标数据的没意义的工作,我曾在另一个回答中力挺 sft 是有技术含量的。我只不过是认为,pretrain 能快速提升工程能力,这对新人非常可贵。成熟一点的程序员,写 hadoop、训 BERT 已经玩得滚瓜烂熟了,多跑一些 sft,找一找大模型的 feel 非常重要,但新人只需要去学习扎实的基本功。

很多人都说,新人只会被分配去打杂,与其去 pretrain 洗数据,不如去 sft 拿收益。但是,孟母三迁的故事并没有过时,人是有眼有腿的啊,可以主动去学习的,在 pretrain 团队,老板不让你做 scaling_law,但是总不能不让你看 scaling_law 的 wiki 吧,总不能不让你请教同事吧。(这段话同样说给选 sft 工作的新人,我们是可以主动去选择学习 pretrain 相关的知识的,不要被工作内容桎梏了眼界和学习范围

在大模型时代,我们如何有效的去学习大模型?

现如今大模型岗位需求越来越大,但是相关岗位人才难求,薪资持续走高,AI运营薪资平均值约18457元,AI工程师薪资平均值约37336元,大模型算法薪资平均值约39607元。
在这里插入图片描述

掌握大模型技术你还能拥有更多可能性

• 成为一名全栈大模型工程师,包括Prompt,LangChain,LoRA等技术开发、运营、产品等方向全栈工程;

• 能够拥有模型二次训练和微调能力,带领大家完成智能对话、文生图等热门应用;

• 薪资上浮10%-20%,覆盖更多高薪岗位,这是一个高需求、高待遇的热门方向和领域;

• 更优质的项目可以为未来创新创业提供基石。

可能大家都想学习AI大模型技术,也_想通过这项技能真正达到升职加薪,就业或是副业的目的,但是不知道该如何开始学习,因为网上的资料太多太杂乱了,如果不能系统的学习就相当于是白学。为了让大家少走弯路,少碰壁,这里我直接把都打包整理好,希望能够真正帮助到大家_。

一、AGI大模型系统学习路线

很多人学习大模型的时候没有方向,东学一点西学一点,像只无头苍蝇乱撞,下面是我整理好的一套完整的学习路线,希望能够帮助到你们学习AI大模型。

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

在这里插入图片描述

三、AI大模型经典PDF书籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

在这里插入图片描述

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

四、AI大模型各大场景实战案例

在这里插入图片描述

结语

【一一AGI大模型学习 所有资源获取处(无偿领取)一一】
所有资料 ⚡️ ,朋友们如果有需要全套 《LLM大模型入门+进阶学习资源包》,扫码获取~

👉[CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)]()👈

  • 12
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在大模型有监督训练(SFT)过程中,数据多样性指的是训练数据集中的样本具有丰富的变化和多样的特征。数据多样性是一种衡量训练数据集中多个样本之间差异性的度量。 数据多样性对于SFT的有效训练非常重要。它能够帮助模型学习到更有效的特征表示,从而提高模型的泛化能力和性能。 首先,数据多样性能够促使模型学习到更丰富的特征。如果训练数据集中的样本都非常相似,模型可能会过度拟合这些特定数据,而无法捕捉到更广泛的特征变化。相反,如果训练数据集中包含了各种不同类型和变化幅度的样本,模型将更有可能学习到更通用的特征表示。 其次,数据多样性可以帮助模型更好地应对未见过的数据。如果模型只在单一模式或特定领域的样本上进行训练,它可能无法处理在训练期间未曾见过的样本。通过训练数据集中引入多样性,模型将更具有鲁棒性和泛化能力,能够更好地适应新的、未知的数据。 最后,数据多样性有助于增强模型的鲁棒性。因为在真实应用中,输入数据的多样性变化往往是不可避免的。通过在训练过程中暴露模型于各种样本,模型可以更好地应对各种输入变化,提高模型的鲁棒性和稳定性。 总之,在大模型有监督训练中,数据多样性是指训练数据集中样本具有丰富的变化和多样的特征。它对于模型的特征学习、泛化能力和应对未知数据具有重要作用。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值