![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
小熊tensorflow笔记
tensorflow学习笔记
xxaxtt
这个作者很懒,什么都没留下…
展开
-
linux安装tensorflow1.4.1和python2.7
参考anaconda和python版本对照表。Ubuntu安装Tensorflow(GPU版)。安装流程,适用Tensorflow1.4,cuda8.0,cudnn6.0。cudnn6.0从官网可以下载,用邮箱注册个账号即可。该教程无法安装cuda8。pip安装whl文件及tensorflow安装。tensorflow镜像下载慢时,可以先下载whl文件再安装。ubuntu 18.04安装cuda 8.0 和cudnn 6.0。安装cuda8的正确方法。Tensorflow不同版本要求与CUDA及原创 2021-06-14 21:31:42 · 1196 阅读 · 0 评论 -
GPU提速案例
案例多分类问题。几十万样本,400维特征,目标类别约1000类,使用xgboost做多分类。使用64核cpu训练需要1.5周。使用单核GPU,型号T4,显存16G,训练时间减少至1.5小时。原创 2021-03-19 11:19:51 · 136 阅读 · 0 评论 -
java部署tensorflow模型
参考使用Java部署TensorFlow和Keras训练好的深度学习模型的几种方法tensorflow训练好的模型中java调用原创 2021-03-18 19:45:28 · 406 阅读 · 0 评论 -
deepFM工程化实践
参考奔奔:推荐算法注意点和DeepFM工程化实现石塔西:用TensorFlow实现支持多值、稀疏、共享权重的DeepFM蘑菇街首页推荐视频流——增量学习与wide&deepFM实践(工程+算法)蘑菇街首页推荐视频流——增量学习与wide&deepFM实践(工程+算法)...原创 2021-03-18 17:56:07 · 159 阅读 · 0 评论 -
安装anaconda3和tensorflow1.14
参考Anaconda与Pycharm详细安装配置原创 2021-01-20 17:29:24 · 259 阅读 · 1 评论 -
tf常用语法例子
tf.nn.dropout(x, rate), 在v2版中rate为抛弃的概率,在v1版中为保留的概率。tf.Variable(tf.random_normal([self.feature_size, self.embedding_size], 0.0, 0.01),name=“feature_embeddings”)tf.Variable(np.random.normal(loc=0, scale=glorot, size=(self.deep_layers[i-1], self.deep_l.原创 2021-01-19 19:55:55 · 225 阅读 · 0 评论 -
keras学习
keras如何使用dataset?原创 2020-09-14 18:19:20 · 69 阅读 · 0 评论 -
指数滑动平均
参考滑动平均模型。原创 2020-12-30 17:25:51 · 163 阅读 · 0 评论 -
连续特征离散化
参考连续特征的离散化:在什么情况下将连续的特征离散化之后可以获得更好的效果?特征离散化原创 2020-12-29 22:47:45 · 97 阅读 · 0 评论 -
deepFm的estimator实现
参考FM因子分解机的原理、公式推导、Python实现和应用。博文1代码详解代码为博文1中抖音实现的FM类,添加了一些注释便于理解。import tensorflow as tfclass FMModelParams(object): """ class for initializing weights """ def __init__(self, feature_size, embedding_size): self._feature_size = feature_size原创 2020-12-29 21:27:24 · 506 阅读 · 0 评论 -
keras自定义层
参考Keras学习笔记(二)Keras实现自定义层疑问compute_output_shape()中的input_shape包含批量维度B吗?应该时包含。antirectifier例子。def compute_output_shape(self, input_shape):原创 2020-12-28 21:37:50 · 202 阅读 · 0 评论 -
LSTM和GRU
GRU中的r好像没啥用,可以去掉吧?原创 2020-10-13 19:57:50 · 97 阅读 · 0 评论 -
deepFm的keras实现
参考知乎用keras实现deepFMDeepfm原理和源码 一篇就好TF 2.0 Keras 实现 DeepFMcsdn用Keras实现一个DeepFMtensorflow2实现DeepFM(基于DataFrame格式训练数据)原创 2020-12-20 21:40:31 · 552 阅读 · 0 评论 -
损失函数总结
参考损失函数loss大大总结疑问tf.losses.log_loss的意义?原创 2020-12-20 16:43:05 · 169 阅读 · 0 评论 -
tf.nn.embedding_lookup()输入输出
self.embeddings =tf.nn.embedding_lookup(self.weights[“feature_embeddings”],self.feat_index) # None * F * K输入1:张量weights[“feature_embeddings”]维度为F*K输入2:张量feat_index维度为None * F输出: tf.nn.embedding_lookup()的维度为None * F * K参考ChenglongChen/tensorflow-De原创 2020-12-20 12:24:43 · 384 阅读 · 1 评论 -
神经网络梯度爆炸、梯度消失
什么情况下,神经网络梯度爆炸?什么情况下,神经网络梯度消失?原创 2020-12-20 11:55:26 · 82 阅读 · 1 评论 -
深度学习初始化策略
参考深度学习之参数初始化策略原创 2020-12-20 11:52:58 · 99 阅读 · 1 评论 -
深度学习中的归一化
疑问BN在预测单个样本时,如何计算均值μ和方差σ?参考详解深度学习中的Normalization,BN/LN/WN原创 2020-11-23 16:11:11 · 86 阅读 · 0 评论 -
transformer学习
代码注意力机制中的mask是怎么回事?将注意力(QK)ij中不存在的项去掉。例如句子最大长度为10,其中一个句子的长度为5,那么j>5的项就不用算了。在机器翻译中,翻译到第i个词时,算自注意力时看不到j>i的K,因此这些j>i的项应该mask掉,注意力矩阵为下三角阵。y_ = label_smoothing(tf.one_hot(y, depth=self.hp.vocab_size))的作用?加入后效果有少量提升。lr = noam_scheme(self.hp.lr, glob原创 2020-11-23 11:40:16 · 126 阅读 · 0 评论 -
文本分类问题
参考文章多标签文本分类-小米多标签文本分类-知乎看山杯冠军文本多分类-淘宝标题分类原创 2020-10-29 17:44:43 · 237 阅读 · 0 评论 -
keras API:循环神经网络
dropout和recurrent_dropout分别是什么?原创 2020-10-23 08:26:01 · 76 阅读 · 0 评论 -
keras API: 一维卷积和二维卷积
channel方向的计算规则?原创 2020-10-22 19:50:45 · 615 阅读 · 0 评论 -
tf.variable_scope()和tf.name_scope()的正确用法
tf.variable_scope()tf官网对tf.variable_scope()的说明。tf.variable_scope()和tf.get_variable()是配合使用的,主要用于变量共享。当reuse=False或None,重复创建变量会报错。当reuse=True而变量不存在,也会报错。reuse参数相互之间是怎么传递的?没有设置reuse参数时,会继承上层的reuse参数值。scope.reuse_variables()。在同一个scope中,可以通过这个语句重用定义过的变量。原创 2020-10-18 11:33:13 · 1937 阅读 · 0 评论 -
deepFM源码学习
deepFM源码学习github地址数据集效果比较github地址数据集效果比较原创 2020-10-08 10:32:32 · 194 阅读 · 0 评论 -
使用gpu训练tensorflow模型
单gpu怎么使用?多gpu也么使用?gpu服务器上也有cpu吗?原创 2020-09-12 21:13:26 · 728 阅读 · 0 评论 -
tf知识点
tf.get_variable()和tf.Variable()区别?tf.get_variable(),Gets an existing variable with these parameters or create a new one. 一般用在tf.variable_scope()中。def foo(): with tf.variable_scope("foo", reuse=tf.AUTO_REUSE): v = tf.get_variable("v", [1]) return.原创 2020-09-11 12:21:08 · 132 阅读 · 0 评论 -
adam优化算法理解
梯度的一阶项m和二阶项v,都有助于下降方向偏向更优方向原创 2020-09-10 22:09:36 · 154 阅读 · 0 评论 -
深度学习知识点
BN作用和代码阿里din模型tf如何从hdfs读取数据并训练?GPU的使用和效果原创 2020-09-01 09:02:20 · 85 阅读 · 0 评论 -
tf.data.Dataset用法
dataset.repeat()作用?原创 2020-09-07 10:33:33 · 328 阅读 · 0 评论 -
bert源码学习
token_type_ids什么意义?原创 2020-09-01 10:26:25 · 185 阅读 · 0 评论 -
tf.estimator基本用法
如何定义模型?model_fn的格式?如何定义输入?tf.estimator.Estimator和tf.estimator.EstimatorSpec原创 2020-09-06 16:36:29 · 1690 阅读 · 1 评论 -
tf.reduce_mean()维度变化
不少博文解释过这个函数,但是对axis=0表示行还是列说的很费解。本文以3维数组为例来补充解释,代码如下:import tensorflow as tfx = [[[1, 2, 3], [4, 5, 6]]]y = tf.cast(x, tf.float32)ym = tf.reduce_mean(y)ym0 = tf.reduce_mean(y, axis=0)ym1 = tf.reduce_mean(y, axis=1)ym2 = tf.reduce_mean(y, axis=2原创 2020-08-08 12:20:02 · 437 阅读 · 1 评论