深度学习
BUPT-WT
不积硅步无以至千里,不积小流无以成江海
展开
-
深度学习-图像分类(mnist)
【代码】深度学习-图像分类(mnist)原创 2023-06-23 14:18:01 · 107 阅读 · 0 评论 -
简单的全连接神经网络(tensorflow实现)
简单的全连接神经网络,网络结构为2-2-1代码如下: #encoding='utf-8' """ created on 2018-08-10 @author wt """ import tensorflow as tf import numpy as np learning_rate = 0.01 ...原创 2018-08-10 10:40:56 · 1152 阅读 · 0 评论 -
卷积神经网络原理及实现
卷积神经网络的主要结构是卷积层+池化层,该算法在图像上有较好的效果小知识:图片有彩色图片和黑白图片,颜色都是有RGB三种颜色调和而成,所以彩色图片有三层通道,黑白图片有一层通道咱们拿黑白图片说事:简单来讲一个图片可以看作是一个矩阵24*24的,来一个卷积核( 这个是自己指定大小数值随机的小矩阵,假如2*2),与前面那个24*24的相乘,先与24*24左上角2*2的小矩阵相乘,得出一个数...原创 2018-08-17 09:53:54 · 442 阅读 · 0 评论 -
深度学习在CTR预估的应用
深度学习在各个领域的成功深度学习在图像和音频等方向比传统方向有大的提升,导致很多产品能快速落地第一行三张图片代表图片和音频方向相比传统提升30%-50%,第二行第一张代表深度学习在自然语言处理方面方向的应用(相比传统学习方法有提升,但是提升效果有限),后两张代表生成式模型(生成图片比较火的是GAN)例如:写好故事框架有时间地点等,GAN自动生成视频(未来)ctr:点击率给定...原创 2018-10-03 09:42:28 · 818 阅读 · 0 评论 -
A Self-Attention Setentence Embedding 阅读笔记
本文利用self-attention的方式去学习句子的embedding,表示为二维矩阵,而不是一个向量,矩阵中的每一行都表示句子中的不同部分。模型中使用了self-attention机制和一个特殊的regularization term总结以往论文中常用的句子表示为一维向量,但是这只能表达句子的一部分信息,为此作者提处一种self-attentive机制,并基于此机制,将句子表示...原创 2019-03-25 21:18:29 · 411 阅读 · 0 评论 -
Hierarchical Attention Networks for Document Classification 阅读笔记
之前存在的问题:当所要处理的序列较长时,就会导致网络容易忘记之前的东西解决办法:提出了“注意力”机制,使得网络工作过程中可以像人一样将注意力放在不同部位。这篇论文就针对文本分类问题提出了层级注意力模型结合双向RNN实现对文本的分类,其效果明显好于其他方法。模型结构:层级“注意力”网络的网络结构下图所示,网络可以被看作为两部分:第一部分为词“注意”部分,另一部分为句“注意”部...转载 2019-03-25 21:55:30 · 405 阅读 · 0 评论