![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
tensorflow2.x
会发paper的学渣
Computer knows how to connect zero with one,Mathmatic get how to skip from one to infinity
展开
-
tensorflow gpu环境安装
tensorflow2.x gpu环境配置原创 2023-02-15 16:09:35 · 847 阅读 · 0 评论 -
基于tensorflow keras的simcse训练以及bert相关知识
基于bert的下游任务训练实现样例:simcse原创 2023-02-14 16:32:08 · 468 阅读 · 0 评论 -
基于transformer和相关预训练模型的任务调优
基于transformer和相关预训练模型的任务调优原创 2023-01-31 19:12:06 · 517 阅读 · 0 评论 -
从tf.math.log_softmax和tf.keras.losses.SparseCategoricalCrossentropy看softmax的上溢和下溢问题
softmax的上溢和下溢问题原创 2023-01-16 19:05:06 · 422 阅读 · 0 评论 -
tf.keras.losses.SparseCategoricalCrossentropy 学习总结
SparseCategoricalCrossentropy相关参数解析原创 2023-01-13 18:27:00 · 862 阅读 · 0 评论 -
tensorflow serving 的相关知识
tensorflow serving 关于模型的部署,客户端的请求方式原创 2023-01-09 18:20:21 · 238 阅读 · 0 评论 -
tf.keras.layers.TextVectorization层介绍及自定义分词器
TextVectorization的相关介绍:普通字符串如何进行快速数字化转换原创 2023-01-05 19:12:00 · 729 阅读 · 0 评论 -
tfx airflow 使用体验
tfx airflow原创 2022-07-25 19:07:29 · 412 阅读 · 0 评论 -
tensorflow recommenders 系列3:双塔召回模型
要求:tensorflow>2.6.0from typing import Dict, Textimport keras.layersimport tensorflow as tffrom keras import Modelimport tensorflow_recommenders as tfrs###############################模型编写###############################class RecUserModel(tf.k原创 2022-04-26 10:52:59 · 2364 阅读 · 0 评论 -
基于tf1.x的feature_columns相关特征处理方法到tf2.x时的迁移
下表是对应的特征处理表逻辑:keras layer中对应的处理类更加直接易于理解。例如连续性数字的离散化处理layers.Discretization字符型或无大小关系的hash桶化:layers.Hashing字符串的数字化编码处理:layers.StringLookup数字类型(无大小区分)数据的数字化编码:layers.IntegerLookup上面三个可以将输入统一化为one_hot、multi_hot或integer对于integer形式,可以再通过使用layers.Ca.原创 2022-04-25 09:52:02 · 267 阅读 · 0 评论 -
tensorflow recommenders 系列2:召回模型介绍
基于tensorflow recommenders快速实现推荐召回模型的训练开发原创 2022-04-22 17:07:40 · 2297 阅读 · 1 评论 -
tf.data.TextLineDataset加载文本文件的数据以及相关方法总结
import tensorflow as tfdataset = tf.data.TextLineDataset(['G:/git_open/tfrs-learn/data/test1','G:/git_open/tfrs-learn/data/test2'],num_parallel_reads=3)resutl = dataset.map(lambda x:tf.strings.split(x,sep=" "),num_parallel_calls=3)for each in resutl: .原创 2022-04-13 13:32:24 · 1147 阅读 · 0 评论 -
tf.data.Dataset介绍1-from_tensor_slices
1、tf.data.Dataset.from_tensor_slices使用a.对输入的类型异常敏感,遇到第一个为list或tensor类型作为维度作为切割维度。小数据内存处理时使用。b.对于外层tuple或dict的跳过不作为切割维度。例如,list数据格式slice#listlist(tf.data.Dataset.from_tensor_slices([[1,3,4],[2,3,4]]).as_numpy_iterator())Out[10]: [array([1,原创 2022-04-08 17:46:11 · 2533 阅读 · 0 评论 -
模型结构图输出
import tensorflow as tffrom keras.utils.vis_utils import plot_modelinput = tf.keras.Input(shape=(100,), dtype='int32', name='input')x = tf.keras.layers.Embedding( output_dim=512, input_dim=10000, input_length=100)(input)x = tf.keras.layers.LSTM(3.原创 2022-04-08 16:10:30 · 1622 阅读 · 0 评论 -
layers.Normalization
标准化,就是执行特征标准化层,第一种方式:通过数据计算出均值和方差:adapt_data = np.array([[0., 7., 4.], [2., 9., 6.], [0., 7., 4.], [2., 9., 6.]], dtype='float32')input_data = np.array([[0., 7., 4.]], dt原创 2022-04-08 13:58:07 · 2042 阅读 · 4 评论 -
keras.layers.Embedding层介绍
本层应用,就是把稀疏矩阵变成一个密集矩阵,也称为查表,因为他们之间是一个一一映射关系。与其对应的是one-hot编码,multi-hot编码,对于特征维度过大的应用,直接使用会造成维度灾难。Embedding层本质也是一个映射,不过不是映射为on-hot编码,而是映射为一个指定维度的向量,该向量是一个变量,通过学习寻找到最优值;此过程类似word2vec的原理。而通常输入的特征都是字符串,所以在映射之前先转化为数字,也就是StringLookup对应的count模式所做的事情。使用方式如下:原创 2022-03-28 18:00:54 · 4536 阅读 · 0 评论 -
keras.layers.StringLookup 层介绍
StringLookup可以返回indices编码,onehot编码,multihot编码;逆转编码原创 2022-03-28 17:41:59 · 3522 阅读 · 0 评论 -
关于tensorflow linux avx2指令集的安装处理
1、首先查看cpu支持的指令集方法:cat /pro/cpuinfo如图:说明,cpu仅仅支持avx2指令集,而tensorflow版本需要avx指令集的支持。avx指令集是和cpu硬件想绑定的。 当前avx512指令集只有intel对应的高级cpu在支持。各个tensorflow对应的avx2版本下载渠道:GitHub - fo40225/tensorflow-windows-wheel: Tensorflow prebuilt binary for Windows注意:仅仅对w原创 2022-03-23 09:42:22 · 3094 阅读 · 1 评论 -
推荐常见特征总结
1、用户特征特征名称 是否建议特征 特征处理方式 姓名 否 id 否 性别 是 onehot 年龄 是 num 兴趣 是 multi-hot 所属省 是 onehot 所属市 是 onehot 所属县 是 onehot 所属国家或地区 是 onehot 用户浏览商品 是 item_ebedding_model原创 2022-02-25 14:09:14 · 247 阅读 · 2 评论 -
textcnn模型实践
对应的tensorflow版本:2.5.0+textcnn模型如下:import tensorflow as tfclass ConvMaxPooling1d(tf.keras.layers.Layer): def __init__(self, filters, kernel): super(ConvMaxPooling1d, self).__init__() self.kernel_size = kernel #(batch_size原创 2022-01-25 11:29:20 · 1761 阅读 · 0 评论 -
tensorflow recommender tfds学习第一讲
中文视频 | TF Recommenders 系列视频教程TensorFlow Recommenders: Quickstart原创 2022-01-19 17:58:23 · 1012 阅读 · 0 评论 -
模型训练的两种方法
方法1:自定义训练过程:import configparserimport pprintfrom model.SingleRNNModel import SingleRNNModelimport tensorflow as tffrom model.TextCNN import TextCNNfrom utils.path_utils import get_full_pathfrom utils.read_batch_data import get_data_by_batch_siz原创 2022-01-17 17:45:13 · 2710 阅读 · 0 评论 -
模型构建的三种方式总结
方法1:序列化构建:model = keras.Sequential([ keras.layers.Flatten(input_shape=(28,28)), keras.layers.Dense(128,activation=tf.nn.relu), keras.layers.Dense(10,activation=tf.nn.softmax) ])方法2:基于tf.keras.Modelimport tensorflow as tf...原创 2022-01-17 17:42:17 · 2536 阅读 · 0 评论 -
tf 常见运算操作 python版
矩阵相乘:A@B <=>tf.matmul(A,B)原创 2022-01-14 18:20:10 · 563 阅读 · 0 评论 -
tensorflow 安装常见问题
1、离线安装对应版本选择:pip 包安装时版版本属性的含义_sslfk的博客-CSDN博客2、linux环境pip源配置,在~下,创建.pip目录,并再.pip创建pip.conf文件,编写对应的源即可阿里云 http://mirrors.aliyun.com/pypi/simple/中国科技大学 https://pypi.mirrors.ustc.edu.cn/simple/ 豆瓣(douban) http://pypi.douban.com/simple/ 清华大学 https:原创 2022-01-12 20:31:51 · 252 阅读 · 0 评论 -
tensorflow2.x加载预训练模型
tensorflow的预训练模型网址为:https://hub.tensorflow.google.cn已经下载好的预训练模型:bert_zh_L-12_H-768_A-12的v4版本(链接:https://pan.baidu.com/s/1Ld_mvXf8Es4lwCaW1PgKsQ提取码:3xba)和bert_zh_preprocess的v3版本(链接:https://pan.baidu.com/s/1jseOQKlVj88-Hpak2PXsCw提取码:s9eq)模型离线加载:im..原创 2022-01-06 19:03:24 · 1170 阅读 · 3 评论 -
MaxPooling1D和globalMaxPooling1D的区别
1.GlobalMaxPooling1D:在steps维度(也就是第二维)对整个数据求最大值。比如说输入数据维度是[10, 4, 10],那么进过全局池化后,输出数据的维度则变成[10, 10]。是对步长维度的向量求最大值。故会产生维度压缩2.MaxPooling1D:也是在steps维度(也就是第二维)求最大值。但是限制每一步的池化的大小。 比如,输入数据维度是[10, 4, 10],池化层大小pooling_size=2,步长stride=1,那么经过MaxPooling(pooling_原创 2022-01-06 13:45:49 · 2005 阅读 · 0 评论 -
卷积神经网络的相关计算
input维度为(batch,step,embedding_size)参数配置:strides,卷积核每次移动的距离,默认为1kernel_size为卷积核宽度filters:输出空间维度则最后返回的数据维度为:原创 2022-01-05 19:39:08 · 1794 阅读 · 0 评论 -
梯度消失和梯度爆炸的本质
梯度消失:0.99^1000=0.00004317梯度爆炸:1.01^1000=20959.155原创 2021-12-27 19:29:29 · 1110 阅读 · 0 评论 -
tf.keras.layers.GlobalMaxPool1D()
与tf.keras.layers.Conv1D的输入一样,输入一个三维数据(batch_size,feature_size,output_dimension)x = tf.constant([[1., 2., 3.], [4., 5., 6.]])x = tf.reshape(x, [2, 3, 1])max_pool_1d=tf.keras.layers.GlobalMaxPooling1D()max_pool_1d(x) 其中max_pool_1d(x)和tf.math原创 2021-12-23 17:13:00 · 997 阅读 · 0 评论 -
tf.keras.layers.Conv1D 学习
CNN tensorflow原创 2021-12-23 16:58:53 · 2957 阅读 · 1 评论 -
模型结构输出 tf2.x
模型结构输出 tf2.x原创 2021-12-21 17:17:25 · 707 阅读 · 0 评论 -
“No training configuration found in save file:the model was *not* compiled. Compile it manually”解决方案
模型加载问题原创 2021-12-20 17:12:38 · 2663 阅读 · 0 评论 -
tf2.x 中tensor numpy 和list的转换
tf2.x 中tensor numpy 和list的转换原创 2021-12-17 18:26:15 · 1700 阅读 · 0 评论 -
tensorflow2.x中字符串wordenbedding的方式
字符串如何embedding原创 2021-12-16 14:00:07 · 1620 阅读 · 0 评论 -
tensorflow2.x中input_signature的说明
1、结构为字典类复核类型时的表示方式:@tf.function(input_signature=({"key1":tf.TensorSpec(shape=(None,),dtype=tf.dtypes.string,name="key1","key2":tf.TensorSpec(shape=(None,),dtype=tf.dtypes.string,name="key2"))},))表示入参结构如下:{ "key1":["a","b"], "key2":["e","f"]}注意原创 2021-12-15 16:03:36 · 2626 阅读 · 0 评论 -
tf.keras.layers.LSTM参数与LSTM模型之前的关系
单层LSTM模型流程图(多层时,利用前一层的每一个h输出态作为当前层的流输入即可):不必担心这里的细节。我们会一步一步地剖析 LSTM 解析图。现在,我们先来熟悉一下图中使用的各种元素的图标在此过程中,有一个是记忆状态:同样对应的中间输出状态为Ht接下来,介绍和tf.keras.layers.LSTM中的关系,1、go_backwards参数,决定输入的序列是正序输入到lstm还是倒序输入到lstm,通过次参数,就可以构造双向lstm2、return_...原创 2021-12-15 11:11:18 · 4134 阅读 · 0 评论 -
tf.keras.layers 和 tf.nn.layers的对比
tf.keras.layers 和 tf.nn.layers的对比原创 2021-12-14 18:21:04 · 989 阅读 · 0 评论 -
模型保存的格式.h5和.pb对比
模型保存的格式.h5和.pb对比原创 2021-12-10 11:03:49 · 6033 阅读 · 0 评论