高通面试01_2023.5.16

1. 64QAM与16QAM速率对比

64 = 2^6,6bit信息/符号;

16 = 2^4,4bit信息/符号;

6/4 = 1.5倍数

 

2. 人工智能热点关注(ChatGPT)

GPT “生成性预先训练转换器”(generative pretrained transformer)

百科:

        ChatGPT是一种由OpenAI训练的大型语言模型。它的原理是基于Transformer架构,通过预训练大量文本数据来学习如何生成人类可读的文本,然后通过接受输入并生成输出来实现对话。

ChatGPT的用途非常广泛,可以用于自然语言处理(NLP)任务,它拥有极强的自然语言处理能力,可以用于各种任务,如文本生成、文本分类、问答系统、语言翻译和对话系统等。

        如果你想使用ChatGPT,你可以用它来构建对话机器人,回答问题,生成文本等。它的应用非常广泛,可以用于各种场景,如客服、帮助提供者、教育机构等。

        1. 对话系统:它可以模拟人类对话,并根据上下文生成自然流畅的回答。

                ChatGPT可以被用来构建智能客服系统,与客户进行对话,回答他们的问题,解决他们

                的问题。同时,ChatGPT也可以被用来构建语音助手,如智能家居设备中的语音控制系

                统,以及手机中的智能助手,如Siri和Alexa。

        2. 自然语言生成:它可以生成各种类型的文本,如新闻报道、文章、电子邮件、广告等。

                可以生成高质量文本,可以帮助程序员生成代码完成开发。  

        3. 文本分类

                ChatGPT可以被用来将文本分类到不同的类别中,如垃圾邮件过滤、情感分析等。这些

                应用可以帮助人们更好地管理信息,提高工作效率。

        4. 问答系统:可以被用来构建问答系统,回答用户的问题,提供相关信息。

                ChatGPT可以被用来回答各种文本问题,如搜索、技术支持、咨询等。ChatGPT也可

                以被用来回答语音问题,从而帮助用户更快地获取信息。

        5. 语言翻译:可以被用来作语言翻译系统

        无监督预训练技术是ChatGPT实现对话生成的关键技术,它可以自动地从大量的无标注数据中学习到语言的规律和特征,从而提高模型的泛化能力和表现力。

Tranformer模型:

        规范化层作用:在一定层数后接规范化层进行数值的规范化,使其特征数值在合理范围内.

3. 解决AI模型的泛化能力

深度学习/AI中的generalization问题,也就是泛化和正则化】

        机器学习方法训练出来一个模型,希望它不仅仅是对于已知的数据(训练集)性能表现良好,对于未知的数据(测试集)也应该表现良好,也就是具有良好的generalization能力,这就是泛化能力。测试集的误差,也被称为泛化误差

        在机器学习中,泛化能力的好坏,最直观表现出来的就是模型的过拟合(overfitting)与欠拟合(underfitting)。

        减缓过拟合:正则化。正则化,它的目标就是要同时让经验风险和模型复杂度较小正则化的最终目标: 让网络学的不要太死,否则变成僵硬的书呆子。

        一个机器学习系统,学习的是从输入到输出的关系,只要一个模型足够复杂,它是不是可以记住所有的训练集合样本之间的映射,代价就是模型复杂,带来的副作用就是没见过的只是略有不同的样本可能表现地就很差,就像下面这张图,只是更改了一个像素,预测就从Dog变成了Cat。

        正则化方法:

                1.经验正则化:提前终止 / 模型集成

                提前终止:训练曲线随着不断迭代训练误差不断减少,但是泛化误差减少后开始增长。

                                  假如我们在泛化误差指标不再提升后,提前结束训练,也是一种正则化方

                                  法,这大概是最简单的方法了。

                模型集成:模型集成(ensemable),也就是通过训练多个模型来完成该任务,它可以是不

                                  同网络结构,不同的初始化方法,不同的数据集训练的模型,也可以是用不

                                  同的测试图片处理方法,总之,采用多个模型进行投票的策略。

                                Dropout一种重要方法:它在训练过程中,随机的丢弃一部分输入,此时丢弃

                                                                        部分对应的参数不会更新。

                                        因为dropout降低了模型的性能,所以对于原本需要容量为N的网络才能

                                        解决的问题,现在需要N/p,p就是保留该节点的概率,这个概率通常在

                                        0.5~0.9之间,p=1就是普通的网络了。

                                        因为dropout相当于增加了噪声,造成梯度的损失,所以需要使用更大的

                                        学习率和动量项。与此同时,对权重进行max-norm等权重约束方法,使

                                        其不超过某个值。

                2. 参数正则化方法:

        数据增强:归一化batch normalization

                现在一般采用批梯度下降方法对深度学习进行优化,这种方法把数据分为若干组,按组来更新参数,一组中的数据共同决定了本次梯度的方向,下降时减少了随机性。另一方面因为批的样本数与整个数据集相比小了很多,计算量也下降了很多。

        Batch Normalization(简称BN)中的batch就是批量数据,即每一次优化时的样本数目,通常BN网络层用在卷积层后,用于重新调整数据分布。假设神经网络某层一个batch的输入为X=[x1,x2,...,xn],其中xi代表一个样本,n为batch size。

        Batch Normalization归一化优势:

                (1) 减轻了对参数初始化的依赖,这是利于调参的朋友们的。

                (2) 训练更快,可以使用更高的学习率。

                (3) BN一定程度上增加了泛化能力,dropout等技术可以去掉。

两种提高泛化能力的思路:

        第一,在不同的环境中采集多组数据重新模型训练,以此提高模型的泛化能力;第二,不用换环境采集新数据,而是对现有的训练数据合理去噪(或称滤波),用去噪后的强特征数据重新训练模型,以此提高模型的泛化能力。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值