![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Python学习
前路漫漫其修远兮
主要从事与C#.NET相关的学习
展开
-
【Python初学】机器学习和深度学习概念,并给出一个可以运行的2层神经网络示例
import tensorflow as tfimport numpy as npimport matplotlib.pyplot as pltdef add_layer(inputs, in_size, out_size, activation_function=None):#添加神经层 Weights = tf.Variable(tf.random.normal([in_s...翻译 2019-07-28 19:41:42 · 247 阅读 · 0 评论 -
TensorFlow实现深层神经网络汇总篇
监督学习最重要的思想就是,在已知答案的标注数据集上,模型给出的预测结果要尽量接近真实的答案。通过调整神经网络中的参数对训练数据进行拟合,可以使得模型对未知的样本提供预测的能力。----反向传播算法在得到前向传播结果之后,需要定义一个损失函数来刻画当前预测值和真实值之间的误差,然后通过反向传播算法来调节神经网络的参数,使得差距被减小。loss = tf.reduce_mean(tf.pow((y...原创 2019-08-05 14:04:38 · 770 阅读 · 0 评论 -
TensorFlow中的激活函数
点击这里你可以看到官网中提供的激活函数首先介绍几种常见的激活函数sigmoid函数也叫Logistic函数,它可以将一个实数映射到(0,1)的区间。根据求导σ '(x)=σ(x)(1-σ(x)),在x=0时梯度最大。缺点:在误差反向传播时,容易造成梯度消失。Relu函数relu函数又称线性修正单元,一般用于回归中输出层神经元。形状如上,公式:f(x)=max(0,x)参考:h...原创 2019-08-04 15:45:22 · 448 阅读 · 0 评论 -
神经网络参数与TensorFlow变量
在写神经网络代码中经常遇到如下代码weights = tf.Variable(tf.random_normal(2,3], dtype=tf.float32) 在TensorFlow中 变量(tf.Variable)的作用就是保存和更新神经网络中的参数tf.random_normal :正态分布tf.truncated_normal :正态分布,但如果随机出来的值偏离平均值超过2个标准差...原创 2019-08-04 14:27:11 · 179 阅读 · 0 评论 -
【Python初学】神经网络入门
神经网络的核心组件:层,网络,目标函数和优化器。训练神经网络主要围绕,1:层。多个层组合成网络(或模型);2:输入数据数据和相应的目标;3:损失函数(用于学习的反信号);4:优化器,决定学习过程如何进行。训练过程如图所示多个层链接在一起组成网络,将输入数据映射为预测值。然后损失函数将这些预测值与目标进行比较,得到损失值,用于衡量网络预测值与预期结果的匹配程度,优化器使用这个损失值来更新网络的...原创 2019-07-31 12:38:49 · 257 阅读 · 0 评论 -
pip安装Windows版本的tensorflow
好不容易安好,分享一下遇到的问题安装方法一:安装Anaconda3 ,从Anaconda Prompt进入,输入pip install tensorflow;遇到cannot uninstall wrapt ,it is a distutils installed project and thus we cann’t accurately determine which files belo...原创 2019-07-23 15:28:51 · 1756 阅读 · 0 评论 -
【Python初学】Python学习中出现的问题总结
参考https://blog.csdn.net/Fourierrr_/article/details/797498991 使用Anaconda Prompt 查看tensorflow版本输入pip list,如下显示本人安装的tensorflow。2.Your CPU supports instructions that this TensorFlow binary was not com...原创 2019-07-28 15:41:03 · 237 阅读 · 0 评论 -
【Python初学】使用Tensorflow 的可视化工具TensorBoard
在PyCharm中写下如下代码,当做练习import tensorflow as tfdef add_layer(inputs, in_size, out_size, activation_function=None): # 添加神经层 with tf.name_scope('layer'): with tf.name_scope('weights'): ...原创 2019-07-28 15:54:23 · 567 阅读 · 0 评论 -
【Python初学】学习神经网络的数学基础
要理解深度学习,需要熟悉很多简单的数学概念:张量,张量运算,微分,梯度下降等。首先给出一个神经网络的示例,引出张量和梯度下降的概念。该示例神经网络的问题是,将手写数据的灰度图像划分到10个类别中,使用MNIST数据集。from keras.datasets import mnistfrom keras import modelsfrom keras import layersfrom ...翻译 2019-07-30 13:41:00 · 600 阅读 · 0 评论 -
深层神经网络中反向传播采用梯度下降法更新神经网络参数的原理解释
假设a为神经网络的参数(实际上代表W和b),f(x)表示在给定的参数取值下,训练数据集损失函数的大小,整个神经网络的优化过程可以抽象为寻找一个参数x,使f(x)最小。其梯度是,在定义一个学习率n,来定义每次更新的幅度,也可以说是每次参数移动的幅度。由此得到参数的更新公式:举个例子假设损失函数是,首先随机产生一个参数x的初始值,然后在通过梯度和学习率来更新参数x的取值。例子中梯度为x,假设参数...原创 2019-08-05 14:50:51 · 4136 阅读 · 0 评论