自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 打卡3

数量梯度下降—最小化所有训练样本的损失函数,导致最终转化的是逐级的最优解,即转化的参数是风险函数最小。 随机梯度下降—最小化每条样本的损失函数,虽然不是每次反复获取的损失函数都向着最大化方向,而是大的整体的方向是向最大化最优解的,最终的结果往往是在总体最优解附近。 视频的模型比较简单,确实效果差异不明显,实际的大模型需要调整 NLP领域主要推荐以下几篇文章:规范和优化LSTM语言模型(LSTM的训...

2020-02-24 12:05:05 148

原创 打卡2

卷积神经网络基础 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通...

2020-02-16 12:33:22 177

原创 打卡1

模型训练的过程实际上就是在求【参数】的过程,我们先假定某类【模型】(选择决策树模型),然后用【训练集】来训练,学习到对应的最优的【参数】。但是问题在于,我们没有办法保证我们假设的那个【模型】是最优的,我们极有可能假设错误对。那怎么办呢?有一个简单的解决方案就是我们假设一堆的模型,然后用【训练集]分别对这些模型来进行训练,学习到每一个【模型】中分别对应的参数-这是起点,也就是【训练集】的任务。 那么...

2020-02-14 19:48:04 158

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除