![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
tensorflow
plasma-deeplearning
这个作者很懒,什么都没留下…
展开
-
tensorflow 1.x 到 tensorflow 2.x
文章目录一、tensorflow 1.x 和 tensorflow 2.x二、tensorflow1.x 转为 tensorflow2.x2.1 tf.Session.run2.2 跟踪变量和损失2.3 训练循环三、转换模型3.1 安装环境3.2 低阶变量和执行3.3 tf.layers 模型3.4 tf.layers 和混合变量四、训练4.1 Datasets的使用4.2 keras内置的fit、evaluate和predict循环训练4.3 编写自己的训练循环4.4 自定义训练步骤4.5 新型指标五、原创 2021-09-24 20:42:38 · 1163 阅读 · 0 评论 -
python求极限
先用夹逼准则简化,再用程序计算import sympyx = sympy.symbols('x')f = (x/sympy.sqrt(x*x+1))**xprint(sympy.limit(f,x,sympy.oo))import sympyx = sympy.symbols('x')f = (x/sympy.sqrt(x*x+x))**xprint(sympy.limit(f,x,sympy.oo))原创 2021-09-15 19:41:20 · 3479 阅读 · 0 评论 -
深度学习——激活函数(函数,函数图像,优缺点,使用建议)
文章目录激活函数sigmoidtanh激活函数激活函数是用来加入非线性因素的,因为线性模型的表达能力不够。引入非线性激活函数,可使深层神经网络的表达能力更加强大。激活函数应满足:非线性: 激活函数非线性时,多层神经网络可逼近所有函数。可微性: 优化器大多用梯度下降更新参数。单调性: 当激活函数是单调的,能保证单层网络的损失函数是凸函数。近似恒等性:当参数初始化为随机小值时,神经网络更稳定。激活函数输出值的范围:激活函数输出为有限值时,基于梯度的优化方法更稳定激活函数输出为无限值时,建原创 2021-09-10 15:39:15 · 7025 阅读 · 0 评论 -
Tensorflow复现AlexNet网络
文章目录完整代码完整代码代码已跑通import tensorflow as tffrom tensorflow.keras import layersimport mathimport timefrom datetime import datetimebatch_size = 32num_batches = 100w_init = 0b_init = 0class Conv1(layers.Layer): def __init__(self): super原创 2021-09-09 23:31:00 · 161 阅读 · 0 评论 -
深度学习—3D可视化CNN
3D可视化CNN:(需要梯子)https://www.cs.ryerson.ca/~aharley/vis/conv/效果如下:原创 2021-09-02 22:31:39 · 575 阅读 · 0 评论 -
人工智能三学派
文章目录人工智能三学派人工智能三学派我们常说的人工智能,就是让机器具备人的思维和意识。人工智能主要有三个学派,即行为主义、符号主义和连接主义。行为主义:是基于控制论的,是在构建感知、动作的控制系统。单脚站立是的方向,控制两只手的动作,保持身体行为主义一个典型例子,通过感知要摔倒的的平衡。这就构建了一个感知、动作的控制系统,是典型的行为主义。符号主义:基于算数逻辑表达式。即在求解问题时,先把问题描述为表达式,再求解表达式。例如在求解某个问题时,利用if case等条件语句和若干计算公式描述出来原创 2021-08-12 00:43:28 · 1428 阅读 · 0 评论 -
tensorflow从头编写层和模型
文章目录输入层 InputLayer隐藏层 HiddenLayer输出层 OutputLayer模型类 MLPBlock输入层 InputLayerclass InputLayer(layers.Layer): def __init__(self, units=784): super(InputLayer, self).__init__() self.units = units def call() return inputsInputLayer 类没有什么实际功能,就是简单地将输入原创 2021-08-10 11:53:52 · 289 阅读 · 0 评论 -
tensorflow中得Sequential, Flatten,Dense, compile, fit函数构造
文章目录SequentialFlattenDensecompilefitkeras.Squential类继承了keras.Model类,在tensorflow2.0中的keras模块中提供很多方便的网络层,可以直接调用,包括keras.layers.Flatten, keras.layers.Dense等。Sequential# Sequential类的构造函数def __init__(self, layers=None, name=None)Flatten# Flatten类的构造函数de原创 2021-08-09 11:15:09 · 834 阅读 · 0 评论 -
人工智能中的一些常见名词概念汇总(神经网络、贝叶斯方法、支持向量机、稀疏回归)
@toc原创 2021-06-26 00:19:34 · 1754 阅读 · 0 评论 -
画神经网络表示图
文章目录NNSVG(个人比较常用)NNSVG(个人比较常用)http://alexlenail.me/NN-SVG/LeNet.html这个用起来非常方便,可以画FCNN、LeNet、AlexNet格式图形,都是可以直观更改的,放个界面给大家了解一下。原创 2021-06-19 18:15:32 · 1223 阅读 · 3 评论 -
鸢尾花(adam同时结合SGDM一阶动量和RMSPro二阶动量)
鸢尾花(adam同时结合SGDM一阶动量和RMSPro二阶动量)# 利用鸢尾花数据集,实现前向传播、反向传播,可视化loss曲线# adam同时结合SGDM一阶动量和RMSPro二阶动量import tensorflow as tffrom sklearn import datasetsfrom matplotlib import pyplot as pltimport numpy as npimport time ##1### 导入数据,分别为输入特征和标签x_data = dat转载 2021-05-29 23:28:35 · 775 阅读 · 0 评论 -
tensorflow回归-带注释
tensorflow回归# 导入所需模块import tensorflow as tffrom matplotlib import pyplot as pltimport numpy as npimport pandas as pd# 读入数据/标签 生成x_train y_traindf = pd.read_csv('dot.csv')x_data = np.array(df[['x1', 'x2']])y_data = np.array(df['y_c'])x_train = x转载 2021-05-29 23:25:09 · 99 阅读 · 0 评论 -
mse案例
mse# -*- coding: UTF-8 -*-import tensorflow as tfimport numpy as npSEED = 23455rdm = np.random.RandomState(seed=SEED)x = rdm.rand(32, 2)y_ = [[x1 + x2 + (rdm.rand() / 10.0 - 0.05)] for (x1, x2) in x] # 生成噪声[0,1)/10=[0,0.1); [0,0.1)-0.05=[-0.05,0.原创 2021-05-29 23:23:20 · 316 阅读 · 0 评论 -
自定义损失函数
自定义损失函数# -*- coding: UTF-8 -*-'''自定义损失函数酸奶成本1元, 酸奶利润99元成本很低,利润很高,人们希望多预测些,生成模型系数大于1,往多了预测'''import tensorflow as tfimport numpy as npSEED = 23455COST = 1PROFIT = 99rdm = np.random.RandomState(seed=SEED)x = rdm.rand(32, 2)y_ = [[x1 + x2 + (原创 2021-05-29 23:21:34 · 123 阅读 · 0 评论 -
DNN 网络-带注释
DNN 网络import tensorflow as tfimport numpy as npimport osfrom matplotlib import pyplot as pltnp.set_printoptions(threshold=np.inf) # 显示numpy所有数据mnist = tf.keras.datasets.mnist (x_train, y_train), (x_test, y_test) = mnist.load_data() # 下载数据集x_trai原创 2021-05-29 23:19:50 · 129 阅读 · 0 评论 -
反向传播-带注释
反向传播import tensorflow as tfw = tf.Variable(tf.constant(5, dtype=tf.float32))lr = 0.2epoch = 40for epoch in range(epoch): # for epoch 定义顶层循环,表示对数据集循环epoch次,此例数据集数据仅有1个w,初始化时候constant赋值为5,循环40次迭代。 with tf.GradientTape() as tape: # with结构到grads框起原创 2021-05-29 23:14:44 · 57 阅读 · 0 评论 -
深度学习求解偏微分方程
深度学习求解偏微分方程1. 稀疏回归解偏微分方程2. 离散连续方程解偏微分方程3. 物理神经网络解偏微分方程(PINN:物理激发的神经网络)1. 稀疏回归解偏微分方程论文:《Data-driven discovery of partial differential equations》作者:Samuel H.Rudy, Steven L.Brunton具体操作:对同一个变量,用遍历算法逐个筛选出来,所筛选出来的和训练数据对上的即为所求的算子。案例:想求解x,y,w之间的关系,就把这三个数据推带入到原创 2021-05-25 21:41:41 · 4274 阅读 · 0 评论 -
keras函数式模型
keras函数式模型全连接神经网络多输入多输出模型共享网络层残差网络Keras的函数式模型为Model,即广义的拥有输入和输出的模型,tf.keras.Sequential 模型是层的简单堆叠,无法表示任意模型。使用 Keras 函数式 API 可以构建复杂的模型拓扑。例如:多输入模型,多输出模型,具有共享层的模型(同一层被调用多次),具有非序列数据流的模型(例如,残差连接)。全连接神经网络对于全连接神经网络Sequential 模型可能更合适,这里只是用来做示例(可以用来原创 2021-05-21 23:26:25 · 1043 阅读 · 0 评论 -
keras函数API详细模型介绍-(带注释)
keras函数API- 带注释全连接神经网络多输入多输出模型共享网络层残差网络Keras的函数式模型为Model,即广义的拥有输入和输出的模型,tf.keras.Sequential 模型是层的简单堆叠,无法表示任意模型。使用 Keras 函数式 API 可以构建复杂的模型拓扑。例如:多输入模型,多输出模型,具有共享层的模型(同一层被调用多次),具有非序列数据流的模型(例如,残差连接)。全连接神经网络对于全连接神经网络Sequential 模型可能更合适,这里只是用来做示例原创 2021-05-21 23:23:46 · 884 阅读 · 0 评论 -
compile 和 fit中参数详细介绍
keras中的compile和fitkeras模型中compile和fit详细介绍compilefitkeras模型中compile和fit详细介绍import tensorflow as tffrom keras.layers import Input, Densefrom keras.models import Model# 返回一个张量inputs = Input(shape=(784,))# 层的实例是可调用的,它以张量为参数,并且返回一个张量x = Dense(64, acti原创 2021-05-21 00:48:03 · 1553 阅读 · 0 评论 -
numpy, pandas显示所有数据
numpy, pandas显示所有数据numpypandasnumpyimport numpy as npnp.set_printoptions(threshold=np.inf) # 显示所有值pandasimport pandas as pdpd.set_option('display.max_columns', None) # 显示所有列pd.set_option('display.max_rows', None) # 显示所有行pd.set.option('max_colw原创 2021-05-19 00:00:30 · 612 阅读 · 0 评论 -
keras简单建模(带注释)
keras简单建模(带注释) 线性堆积模型网络说明编译模型训练模型评估和预测模型线性堆积模型# 导入kerasimport tensorflow as tfimport kerasfrom keras import layersimport numpy as npprint("tensorflow的版本:", tf.__version__)print("keras的版本", keras.__version__)# 随机构造输入数据train_x = np.random.random((1原创 2021-05-18 15:04:27 · 232 阅读 · 0 评论 -
更改conda源
更改conda源安装tensorflow过慢时,可以更改conda源安装tensorflow过慢时,可以更改conda源把一下代码直接复制到后端,按enter即可conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/conda-forge/ conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkg原创 2021-05-17 21:16:54 · 1430 阅读 · 0 评论