深度学习
丫头片子不懂事
easy and funny
展开
-
将Keras模型导出为SavedModel模型
将Keras模型导出为SavedModel模型keras模型结构def get_model_keras(self): """构建多输入模型""" input_x = Input(shape=(self.feature_dim,), name='inputs') hidden = Dense(256, activation='relu', name='hidden1')(input_x) output = Dropout(rate=0.5)(hidden) outp原创 2022-02-10 16:18:25 · 1479 阅读 · 0 评论 -
tensorflow linspace
如何建立数据原创 2016-10-08 17:13:45 · 2134 阅读 · 2 评论 -
强化学习RL实战篇
动手实现RL原创 2016-09-07 16:28:54 · 7711 阅读 · 1 评论 -
word embedding的模型与测试
模型和测评原创 2017-08-01 11:58:39 · 2885 阅读 · 2 评论 -
FastText.zip compressing text classification models
这是关于论文FastText.zip: compressing text classification models的读后感,该论文主要表述的是如何压缩网络模型使其在空间和时间上节省且效果没有明显下降。原创 2017-01-17 16:40:23 · 1711 阅读 · 0 评论 -
Tensorflow学习Lecture 1
TensorFlow 是一个编程系统, 使用图来表示计算任务. 图中的节点被称之为op (operation 的缩写). 一个 op获得 0 个或多个Tensor , 执行计算, 产生 0 个或多个Tensor . 每个 Tensor 是一个类型化的多维数组. 一个 TensorFlow 图描述了计算的过程. 为了进行计算, 图必须在会话里被启动. 会话将图的 op 分发到诸如 CPU 或 GPU 之类的设备上原创 2016-09-05 23:17:37 · 336 阅读 · 0 评论 -
Generating News Headlines with Recurrent Neural Networks
Generating News Headlines with Recurrent Neural Networks论文里面将attention和seq2seq 的模型结合,应用在文本自动摘要。原创 2016-09-14 19:37:21 · 916 阅读 · 0 评论 -
attention 机制
attention 机制什么是attentionattention机制是(非常)松散地基于人类的视觉注意机制。就是按照“高分辨率”聚焦在图片的某个特定区域并以“低分辨率”感知图像的周边区域的模式,然后不断地调整聚焦点。这个概念最早出现在认知心理学上面。原创 2016-08-01 16:24:34 · 13355 阅读 · 2 评论 -
递归神经网络(recursive NN)结合自编码(Autoencode)实现句子建模
递归神经网络(recursive NN)结合自编码(Autoencode)实现句子建模原创 2016-08-04 15:16:17 · 9690 阅读 · 2 评论