Tensorflow
HxShine
这个作者很懒,什么都没留下…
展开
-
tensorflow serving部署概要
1. 目录结构[@hbhly_SG21_41_53 pb_models]# tree textcnn/textcnn/└── 000 ├── saved_model.pb └── variables ├── variables.data-00000-of-00001 └── variables.index2. 检查结果pb文件的default配置saved_model_cli show --dir /root/huxiang/serving/pb_原创 2020-11-24 10:52:04 · 148 阅读 · 0 评论 -
Focal Loss与GHM 理解与使用
一、理解5分钟理解Focal Loss与GHM——解决样本不平衡利器https://zhuanlan.zhihu.com/p/80594704二、使用GHM论文理解及实现https://zheng-yuwei.github.io/2019/07/08/13_GHM%E8%AE%BA%E6%96%87%E7%90%86%E8%A7%A3%E5%8F%8A%E5%AE%9E%E7%8E%B0/ghm-kerashttps://github.com/wangbingnan136/ghm-ke原创 2020-11-09 16:34:22 · 1350 阅读 · 0 评论 -
tensorflow keras兼容问题
1.AttributeError: module ‘tensorflow.python.keras.backend’ has no attribute ‘get_graph’版本不匹配,查看keras和tensorflow版本匹配:https://docs.floydhub.com/guides/environments/2.AttributeError: module ‘tensorflow’ has no attribute ‘name_scope’ with Keraspip instal原创 2020-10-28 13:15:17 · 350 阅读 · 0 评论 -
keras 中文ner使用,crf 原理以及转移矩阵解读
1. 目标看下keras解决ner问题是否比较方便,摸摸坑2. 两个比较好的项目keras-bert-nerhttps://github.com/liushaoweihua/keras-bert-ner/keras社区提供的一个包https://github.com/keras-team/keras-contrib3. 使用步骤# 1. 下载:https://github.com/liushaoweihua/keras-bert-nergit clone https://github.原创 2020-09-26 23:11:44 · 1804 阅读 · 0 评论 -
keras 共享参数层设计以及中间结果输出和模型结果保存
1. 示例代码#coding:utf-8from tensorflow.keras import Inputfrom tensorflow.keras.layers import Dense, Lambda, Concatenate, Reshapefrom tensorflow.keras.models import Modelfrom tensorflow.keras.optimizers import Adam# from tensorflow.keras.layers.embedding原创 2020-09-14 17:20:55 · 1319 阅读 · 1 评论 -
Tensoflow学习记录13--用深度学习来做图像分割Fully Convolutional Networks for Semantic Segmentation (FCNs)
1 文章及其地址 Fully Convolutional Networks for Semantic Segmentation (FCNs) http://arxiv.org/pdf/1605.06211v1.pdf2 总述感觉就是在vgg网络的基础上,将最后三层全连接改为cnn,即全都为卷积层了,fully convolutional networks,然后再反卷积,使输出与原始图像一致,这原创 2017-02-21 10:48:26 · 6715 阅读 · 10 评论 -
Tensorflow学习记录10--VGG网络
点我下载paper1 VGG网络总结感觉就是再alex-net的基础上,研究了下如何加深网络来提高性能的。总体上也是五层卷积加上三层全链接,但是这五层卷积中都会以pooling来分割,且五层卷积尝试叠加多层卷积再一起,并且尝试以更小的核以及提高核的数量来提高网络的性能,比如alex-net的核的大小为11×11×96不等,vgg网络一般都是用3×3的核,但是她核的数量提高了很多,有3×3×256不等原创 2017-02-02 20:47:30 · 13179 阅读 · 0 评论 -
1 docker环境使用tensorflow以及jupyter notebook的使用
1 docker一些介绍注(92服务器上已经配置好docker,但是需要sudo命令才能运行) 这俩篇文章介绍了docker大概是怎么玩的。 大白话Docker入门(一) https://www.atatech.org/articles/65782#6 大白话Docker入门(二) https://www.atatech.org/articles/65863基本使用的话,了解这些应该差不多原创 2017-03-21 20:59:14 · 9918 阅读 · 0 评论 -
java调用tensorflow
1.tensorflow官方java调用pb图像分类https://github.com/tensorflow/tensorflow/tree/master/tensorflow/java1.生成pbhttp://blog.csdn.net/u014432647/article/details/75276718原创 2017-09-24 18:01:34 · 11856 阅读 · 0 评论 -
视频描述生成vedeo caption资料整理(待完成)
代码1. xiadingZ/video-caption.pytorch2.pochih/Video-Cap3.JaywongWang/DenseVideoCaptioningdataset:Dense-Captioning Events in Videos,activitynet_c3d_fc7_stride_64_frame.hdf54.scopeInfinity/Video2D...原创 2019-08-22 16:35:35 · 1178 阅读 · 0 评论 -
ubuntu 14.04LTS下源码编译安装TensorFlow-No GPU
ubuntu 14.04LTS下源码编译安装TensorFlow-No GPU1 下载源代码git clone --recurse-submodules https://github.com/tensorflow/tensorflow2 安装goolge构建工程工具Bazel系统环境:Ubuntu Linux 14.04 LTS Java JDK8或者更新 1) 安装JDK8sudo apt-g原创 2017-01-20 10:17:41 · 1292 阅读 · 0 评论 -
Tensoflow学习记录12--resnet网络
综述前面俩小节已经讲了经典的alex-net和vgg网络,vgg-net在alex网络的基础上,测试了很多种加深网络的方式,得到了vgg16和vgg19最后的结果还不错,但是后来人们发现,在网络深度到达一定程度后,继续加深网络,会有俩个问题,一个是太远了,梯度消失,即数据分散在不再被激活的那个区域导致梯度为0消失了,这个可以通过norimalized核intermediate narmalizati原创 2017-02-09 02:41:38 · 2079 阅读 · 0 评论 -
Tensorflow学习记录9--alexnet网络
alexnet总结总共八层,作者说层数越多应该效果会更好,但是考虑GPU的计算能力整成八层,作者说任意减掉一层都会是识别效果下降,前俩层有卷积层,局部激活响应归一化lrn,激活函数relu以及池化层,中间俩层只有卷积和激活函数relu,第五层的卷积层只有卷积和池化层,没有lrn和relu,第六七八层又全都是全链接层,最后一层的输出为1000个神经元。 其中使用了relu,dropout,lrn,i原创 2017-02-02 13:36:27 · 1712 阅读 · 0 评论 -
tensorflow学习记录--1.安装
一.入门网站用了俩天,感觉tensorflow就像是一个python的库(可以自行编译),所以安装的话可以很简单。 1.tensorflow官网 安装方式,教程,api,等资源都可以在里面找到。 2.tensorflow中文社区 官方对应的中文版本,但更新慢,建议使用官网。 1.安装这篇博客不错: TensorFlow 从入门到原创 2016-11-02 14:54:06 · 716 阅读 · 0 评论 -
TensorFlow学习记录-- 6.百度warp-ctc 参数以及测试例子2解释
1 百度CTChttps://github.com/baidu-research/warp-ctc/blob/master/README.zh_cn.md2 CTC详解总的来说就是想不对齐标签,来设计一个loss,通过最小化这个loss,可以得到精确的识别效果(即最后还能在不对齐标签的情况下解码出来),在语音识别方面效果和优势明显。 未完待续3 解读百度warp-ctc参数以及例子1 ctc函数c原创 2016-12-02 17:15:20 · 5603 阅读 · 2 评论 -
TensorFlow学习记录-- 4.拟合曲线
一 已知模型拟合直线这里先用numpy创建一些数据点x,然后计算出出标签y(加了一些正态分布的随机点),最后用tensorflow去拟合这些点。代码以及图1.构建点x和标签yimport numpy as npnum_points = 1000vectors_set = []for i in xrange(num_points): x1= np.random.normal(0.原创 2016-11-11 10:45:16 · 4036 阅读 · 1 评论 -
TensorFlow学习记录-- 8.TensorFlow之如何构建漂亮的模型
原文: Structuring Your TensorFlow Models1 定义一个计算图(传统方法)一般的,一个模型需要链接输入数据,标签,并提供trainning,evaluation和inference操作。普通的构造方法如下:class Model: def __init__(self, data, target): data_size = int(data.ge翻译 2016-12-21 17:08:39 · 1377 阅读 · 0 评论 -
TensorFlow学习记录-- 7.TensorFlow高效读取数据之tfrecord详细解读
一 why tfrecord?对于数据量较小而言,可能一般选择直接将数据加载进内存,然后再分batch输入网络进行训练(tip:使用这种方法时,结合yield 使用更为简洁,大家自己尝试一下吧,我就不赘述了)。但是,如果数据量较大,这样的方法就不适用了,因为太耗内存,所以这时最好使用tensorflow提供的队列queue,也就是第二种方法 从文件读取数据。对于一些特定的读取,比如csv文件格式,官原创 2016-12-06 10:06:22 · 25371 阅读 · 2 评论 -
2 Connectionist Temporal Classification在语音识别中的运用(未完待续)
一 摘要RNN运用到序列的学习中很有用,但是还是需要预处理数据,即例如处理语音数据,之前每一帧的输入需要对应一个label,本文直接利用RNN处理未预处理的数据,并在TIMIT语料库中进行实验,相对HMM和HMM-RNN取得明显的优势。二 CTC详细介绍1之前的方式之前手写数字识别,语音识别,姿态识别都需要对数据进行预处理,即分割成letters或者word。 如今hidden Markov Mo原创 2016-12-07 10:14:38 · 3625 阅读 · 1 评论 -
Tensorflow学习记录10--tensorboard的使用
1 简介tensorboard可以追踪loss以及accuracy的变化,追踪参数值w以及b的变化,以及可以显示卷积过程中的图像等等。2 使用方式1 首先标记要记录的参数图像,值以及变量:#图像tf.image_summary(tag, tensor, max_images=3, collections=None, name=None)#值tf.scalar_summary(tags, val原创 2017-02-07 23:56:01 · 6502 阅读 · 2 评论 -
TensorFlow学习记录--3.MNIST从低级到高级(从全连接网络到卷积神经网络的解释)
一. MINST For ML Beginners(全连接网络)上一讲已经谈到了构建模型后,把数据丢进去,按照梯度下降法一步一步训练可以得到模型的参数。对图片处理,也是构建一种一种模型(图),然后扔给tensorflow去计算就好了。1.算法流程 1.构建图,上一讲TensorFLow运作模式及概念就提前给即将输入数据构建了一个线性模型,然后再计算出模型的参数,但是这里输入是手写数字的28原创 2016-11-06 10:56:20 · 2937 阅读 · 0 评论 -
TensorFlow学习记录-- 5.用lstm对手写数字进行识别(待修改,差增加rnn以及lstm的知识)
待修改二 Rnn_mnist1 整体解释整个结构为每次将batch=500,图片大小为28×28的数据,对于每张图片来说,每次一列一列的读入数据,即分成28个时间序列每次28个送入rnn网络进行训练,将最后一个时间点的输出output[-1]作为最终输出,其中隐藏层 里面有 n_hidden=256个特征数,即最后输出out的特征的数量也是这么多,一般取最后一个out作为最终输出,最后一个out[-原创 2016-11-21 13:10:59 · 1344 阅读 · 0 评论 -
TensorFlow学习记录--2.运行方式及基础概念
一 TensorFLow运作模式及概念运作模式 1.tensorflow是用python先构建一个图,然后通过外部运算优化得到结果 2.向模型不断喂入数据,然后给出要不断优化的对象loss,根据loss的走势不断优化模型得到结果 概念 1.用python或者其他语言构建一个图 graph 2.图需要在会话session中运行 3.variable变量,tenso原创 2016-11-04 09:38:17 · 1671 阅读 · 0 评论