自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 嵌入层---极简学习笔记(简易是最高的原则)

embedding可以理解为:把离散的数据转换到连续的可以被连续表达的空间上,把稀疏高维的东西变到了稠密低维的上面了,我们可以用很好的低维的数据来获取我们想要的信息。 常用于: 用于第一层网络 1.将复杂的东西变简单,我们就更容易用比较少的参数拟合到合理的效果,而不是去拟合那些不重要的信息如噪声等,即透过现象看本质,可以减少模型过拟合 2.解决训练数据过于稀疏的问题 用于输出层 1.用于相似度匹配,如把人脸信息嵌入进去,可以比较相似度 2.与其他数据结合丢到其他网络中训练 3.数据可视化(因为人对3维以上的

2022-02-15 15:38:09 1637

原创 RNN,LSTM,GRU极简笔记

RNN与卷积最大的不同是,他的cell输出会成为下一个cell的输入,这代表了RNN是有一定**记忆能力**的,因为我的输出成为了我的输入,所以训练参数是有记忆性的,如果卷积神经网络是人类视觉的模拟,那循环神经网络是人类记忆信号的模拟,它通过看从时序序列上的相关性产生了一定程度的记忆,这种记忆包含语义,语法等信息。 它的应用 1.预测一个时序信号的未来数据,比如房价,股价,公司效益的预测。 2.自然语言处理 人在看一篇文章的时候,要是想产生理解,往往需要看完全部的段落或句子,而不是只看完某个字,然后才可以

2022-02-15 11:24:58 458

原创 混合精度训练笔记

本文只是总结一下,详细可见官网https://tensorflow.google.cn/xla/architecture?hl=zh_cn

2022-02-14 00:20:07 742

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除