自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(15)
  • 收藏
  • 关注

原创 seq2seq模型+集束搜索+注意力模型+音频模型

机器翻译模型由编码网络和解码网络两部分构成,解码网络与语言模型很像,只是将输入向量用编码网络替代,有了编码网络模型可以以一个句子或图片作为输入,而不是用零向量,故机器翻译也称条件语言模型。

2024-08-05 15:55:55 840

原创 词嵌入技术:构建词嵌入的相关算法+词嵌入消除偏见

假设Xij是单词i在单词j上下文出现的次数。若上下文和目标词的范围相同,例如定义为出现于左右各10词以内的话,那么就有一种对称关系,即Xij=Xji。若对上下文的选择总是在目标词前的固定历史窗口的几个单词,那么Xij≠Xji。GloVe词向量是上下文和目标词的关系开始明确化。对于GloVe我们可以定义上下文和目标词为任意两个位置相近的单词。例如,可以假设左右各10词的距离。

2024-07-30 18:17:43 894

原创 序列模型:循环神经网络(RNN)+长短时记忆神经网络(LSTM)

(1)在不同的例子中,输入长度Tx和输出长度Ty可能不一样,因此可能用的padding或零填充,但是效果不是很好。(2)传统的神经网络,并不能共享从文本的不同位置上学到的特征。

2024-07-26 17:16:39 813

原创 卷积神经网络的应用:人脸识别+神经网络风格迁移

合并两个图像,即“内容”图像(Content)和“风格”图像(Style),以创建“生成的”图像(Generated)。生成的图像G将图像C的“内容”与图像S的“风格”相结合。迁移学习使用在不同任务上训练的网络并将其应用于新任务的想法称为迁移学习。神经风格转换(NST)使用先前训练好了的卷积网络,并在此基础之上进行构建。模型已经在非常大的数据库上进行了训练,因此学会了识别各种低级特征(浅层)和高级特征(深层)。

2024-07-24 18:12:36 1083

原创 基础知识:对象定位分类+对象检测算法组件+YOLO算法

基础知识介绍:对象定位分类+对象检测算法组件(Bounding boxes、Anchor boxes、交并比IoU、非最大值抑制NMS)+YOLO算法

2024-07-14 17:39:42 913

原创 基础知识:三种经典网络+残差网络+Inception网络

三种经典网络、残差网络和Inception网络的介绍

2024-07-14 17:25:40 448

原创 C/C++零碎知识

求字符串长度 n=strlen(str);4.getchar()函数、putchar()函数。没有string类型,应定义char类型的数组。可以用gets()作为字符型数组的输入。C++可以把 i 变量定义在for中。不能直接把 i 变量定义在for中。字符串以'/0'结束,长度至少为2。必须得把 i 变量单独定义。

2024-06-20 16:44:29 123

原创 卷积神经网络(CNN)基础知识

假设大于0的值表现为白色,等于0的值表现为灰色,小于0的值表现为黑色,如图左边为白色,右边为灰色的区域,由亮向暗过渡,经过卷积核后会表现为中间为白色区域,两边为灰色的区域,及中间的垂直边缘被放大为白色区域。意味着不填充,(n×n)的图片用(f×f)的卷积核卷积后,图像变为(n-f+1)×(n-f+1)。当p=(f-1)/2 , 有 (n+2×p-f+1)×(n+2×p-f+1)=(n×n)。对(f×f)的卷积核填充p层,则图像变为(n+2×p-f+1)×(n+2×p-f+1)。

2024-06-20 08:10:06 639

原创 数据集不同划分方法的错误分析+其它学习方法

迁移学习:神经网络可以从一个任务中习得知识,并将这些知识应用到另一个独立的任务。利用新任务的数据集重新训练神经网络有两种方法:(1)如果数据集小,可以只训练输出层前的最后一层或两层,仅仅改变,并保持其他参数不变。(2)如果有足够多数据,重新训练神经网络中的所有层,即重新训练网络中的所有参数。尝试从多个任务中并行学习,而不是串行学习,在训练一个任务后试图迁移到另一个任务。常用场景:无人驾驶技术(需要同时识别交通灯、汽车和行人等多个任务)

2024-06-16 17:25:23 552

原创 模型优化策略及评估方法

人类水平表现与贝叶斯最优错误率差距不大,后者是理论上的最好情况,因此我们通常人类水平表现把人类水平表现近似为贝叶斯最优错误率。

2024-06-11 11:28:24 525

原创 归一化网络的激活函数和SoftMax回归

(2)限制了在前面层的参数更新会影响数值分布的程度,减少了输入值改变的问题,使其变得更稳定,增加每层网络独立学习能力,使得神经网络后面的层就会有更坚实的基础,从而更好应对输入数据的改变。的作用在于使隐藏单元值的均值和方差标准化,有固定的均值和方差,通过限制了隐藏单元值随机化的程度,使其更加具有代表性,从而从而可以加速训练速度。Batch归一化,不只适用输入层,对于任意一个隐藏层都使用,归一化隐藏层的输入特征,使其分布更加均匀,从而可以加速训练速度。对于隐藏层的输入特征,先用归一化,再使用激活函数。

2024-06-10 11:24:46 433

原创 神经网络相关优化算法

把训练集分割为小一点的子训练集,即Mini-batch.Batch成本函数会逐渐递减。Mini-batch成本函数会上下振动,但总体趋势还是递减。(1)梯度下降法若Mini-batch大小为batch, Mini-batch为整个训练集,,称为梯度下降法。若使用梯度下降法,mini-batch=m,则每个迭代需要处理大量训练样本。缺点:若数据量很大时,单次迭代耗时太长。(2)随机梯度下降法若Mini-batch大小为1, Mini-batch为单个样本 ,,称为随机梯度下降法。

2024-06-01 08:34:46 785

原创 机器学习基础知识

1.训练集误差,判断模型是否很好的拟合训练集问题,进而可以判断是否有高偏差问题。基于训练集误差基础上,再观察开发集上的误差,可知道模型是否有高方差问题,可以判断训练集上的算法是否在开发集上同样适用,即模型的泛化性。2.基误差的确定也影响着对模型的分析,比如数据集中的图片很模糊,真人识别也很难,若基误差为15%,则(2)不应是高偏差问题。

2024-05-18 17:32:01 711 1

原创 Logistic回归:一种有监督学习的二元分类模型

每次从初始点开始朝着最陡的下坡走一步,进而可以找到接近全局最优解的结果。若成本函数为非凸函数,则有可能会陷入局部最优解。梯度下降法适用于处理成本函数为凸函数,用来训练或学习训练集上参数w和b,确定出来拥有最小成本函数的参数w和b。成本函数用于衡量w和b的效果,在全部训练集上来衡量。为学习率,可以控制每次迭代或梯度下降的步长。计算流程图的正向传播,从左到右计算成本函数J。计算流程图的反向传播,从右向左计算导数。为sigmod()函数, 其中。:输入x,判断y=1的概率,即。

2024-05-05 16:50:26 462 1

原创 解决惠普Win10电脑没有wifi图标、网络适配器中无线网卡显示黄色感叹号

由于系统更新为22H2的版本,BIOS版本较旧,可能造成了网络适配器中无线网卡的不稳定,不适配。更新了Firmware固件,帮助电脑更新BIOS系统,较新的BIOS系统可以增加电脑的稳定性。

2024-03-02 23:11:54 1228

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除