普通人如何成为AI产品经理?

HI 大家好本人,8年AI产品经理,本系列为近期本人学习及工作沉淀。希望通过简单、直白的梳理,对AI有兴趣/希望转行的同学有所帮助。

本文为此系列引言,主要为各技术点的要点汇总,旨在普及基础技术知识点不含产品观点,对LLM了解的同学可跳过。

什么是大语言模型(LLM)

顾名思义,大语言模型的特点是规模庞大,可能拥有十亿以上的参数。由于研究方向不同,在前两年出现以自然语言理解任务和自然语言生成类任务的两条技术线。

自然语言理解任务

即包括文本分类、句子关系判断等,本质上是分类任务。其技术以Bert为代表。Bert(Bidirectional Encoder Representation from Transfomer)采用双向Transformer Encoder架构。Bert的优点是可以更好地理解上下文信息,缺点是长文本处理不够稳定。

自然语言生成类任务

可给定输入文本,要求对应模型生成一串输出的模型。其技术以GPT为代表。GPT(Generative Pre-trained Transfomer)使用单向Transfomer Decoder结构。GPT的优点是训练过程相对简单,可以生成自然流畅的文本。

从两类任务来看,如果仅用自然语言理解模型,可能无法很好地处理生成任务。但一个LLM 生成模型是可以兼顾两个任务的处理,所以主流更希望推进的应用方向是结合LLM生成模型来做落地。

附图:Transformer介绍

img

了解Transformer

市场大语言模型有哪些

img

(数据来源:机器之心)

在生成式任务方向按照模型结构的不同可以分为两大类

基于[Causal decoder-only](https://www.zhihu.com/search?q=Causal decoder-only&search_source=Entity&hybrid_search_source=Entity&hybrid_search_extra={“sourceType”%3A"answer"%2C"sourceId"%3A3331705933}) (因果解码器)的Transformer结构

如 GPT-4、Claude 2、LLaMA2等大模型

基于Prefix-decoder-only (前缀解码器)的Transformer结构

如Chat GLM-6B(清华大学提出的支持中英双语问答的对话语言模型)

那么两种结构的区别是什么呢?

相同训练的情况下,[Prefix decoder](https://www.zhihu.com/search?q=Prefix decoder&search_source=Entity&hybrid_search_source=Entity&hybrid_search_extra={“sourceType”%3A"answer"%2C"sourceId"%3A3331705933})用到的tokens数量更少,训练效率较低,效果相对较差(训练时Causal decoder结构会在所有Token上计算损失,而Prefix decoder只会在输出上计算损失,不计算输入的损失)

除此维度外,模型基础信息(训练数据、数据量、模型参数量、词表大小等)会成为主要区分维度,如下图:

img

列名称:模型名称、发布时间、模型大小、是否基于哪个模型、适应性调优(IT指令调优、RLHF用于对齐调优-人类反馈强化学习)、预训练数据规模、近期更新、硬件情况、训练时长、评估(ICL上下文学习、CoT思维链)

(数据来源:机器之心)

大模型有什么样的训练范式

NLP经历四个训练范式:

1) 第一范式:基于传统机器学习模型的范式,特征工程+算法,需要大量训练数据

2) 第二范式:基于深度学习模型的范式,自动获取特征,相对1提高了准确率

3) 第三范式:基于【Pre-train(无监督)+fine-tune(有监督)】的范式,pre-train是基于无标注数据训练;fine-tune阶段经过pre-train的初始化以后,后续的参数用有标注的数据进行训练。小数据集可以训练出好模型。

4) 第四范式(重要,详情请见系列下篇):基于【Pre-train,Prompt,Predict】的范式,应用Zero/Few Shot ,需要少量(无)的任务数据。

大模型大多应用第三、第四范式为主,第三范式目的是预训练模型以更好地应用在下游任务,而用较多的数据训练新的任务,会导致少量样本学习能力差的问题,以及会造成部署资源的极大浪费

对于第四范式,本质是将所有下游任务统一成预训练任务**,以特定的模板将下游任务的数据转成自然语言形式,挖掘预训练模型的本身能力**,因此可以降低语义差异以及避免过拟合

大模型评测的标准和方法
  1. 产品表现:包括语义语法语境理解、内容准确性、生成质量、性能测试、拟人性和多模态能力;
  • 语义理解包括上下文理解、逻辑推理、多语言等;
  • 内容准确性包括回复内容和结果准确性和陷阱处理;
  • 生成质量包括多样性、创造性、专业度等;
  • 性能主要包括回复速度、资源消耗等;
  • 拟人性主要针对用户情感分析;

\2. 模型基础能力:主要针对算力和数据,包括参数量级、数据量级、数据质量等

\3. 其他:主要针对安全合规,包括安全和隐私处理能力、内容安全性、公平性、隐私保护

(非原创但找不到来源了,找到会补上)

评估大模型的安全性

LLM Tustworthiness 字节跳动

img

1.可靠性 :虚假信息、语言模型幻觉、不一致、校准失误、谄媚

2.安全性 :暴力、违法、未成年人伤害、成人内容、心理健康问题、隐私侵犯

3.公平性 :不公正、刻板偏见、偏好偏见、性能差异

4.抵制滥用 :宣传、网络攻击、社交工程版权泄漏

5.可解释性和推理 :解释能力不足、逻辑能力不足、 因果能力不足

6.社会规范 :恶毒语言、情感迟钝、文化迟钝

7.稳健性 :提示攻击、范式和分布变化、干预效果、投毒攻击

如何转行/入门AI产品经理 ?

🤔越来越多的人开始转行AI产品经理,毕竟大行情不是太好,对于刚毕业的研究生,想转行的互联网人,AI产品经理,确实是一个不错的方向,我在大厂做了多年的AI产品经理,还是想给大家一些经验和方向⏩

🔥AIGC在行业大火,AI产品经理到底要学哪些内容,和算法工程师有哪些区别,转行AI产品经理要学哪些东西,以下是整个学习思路和方向👇

1️⃣AI产品经理全局学习
2️⃣python系统学习
3️⃣机器学习&深度学习
4️⃣热门AI产品竞品分析
5️⃣AI产品设计学习
6️⃣AI产品0-1实操项目经验
7️⃣AI产品求职&面试

💎以上7点,看起来简单,内部内容其实很多,每一个篇章,展开都有夯实且丰富的内容,需要深度学习。

在这里插入图片描述

👉AI产品经理大模型视频和书籍PDF合集👈

观看零基础学习书籍和视频,看书籍和视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
在这里插入图片描述

👉获取方式:

😝文章篇幅有限,详细资料有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

  • 24
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值