![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
WanderingSIN
这个作者很懒,什么都没留下…
展开
-
自适应动态规划(三)
自适应动态规划(三)值迭代稳定性证明自适应动态规划的核心就是去求解除下面的序列,但是这个序列一定是收敛的吗?论文中给出了证明。V(x(k))=minu(k){U(x(k),u(k))+V(x(k+1))}V(x(k))=\min_{u(k)}\{U(x(k),u(k))+V(x(k+1))\}V(x(k))=u(k)min{U(x(k),u(k))+V(x(k+1))}在这个证明中,首先确定的是 V0(x)=0V_0(x)=0V0(x)=0 的初始条件,HDP的迭代公式如下:u0(x(k原创 2020-10-12 14:29:49 · 2255 阅读 · 1 评论 -
Learning both Weights and Connections for Efficient Neural Networks
Learning both Weights and Connections for Efficient Neural Networks摘要神经网络是计算密集型和内存密集型的,这使得它们很难部署在嵌入式系统上。此外,传统的网络在训练开始前就确定了架构;因此,训练不能改善网络结构。为了解决这些限制,我们提出了一种方法,通过只学习重要的连接参数,来减少存储和计算所需的神经网络数量级,而不影响其准确性。我们的方法使用三步方法删除冗余连接。首先,我们训练网络了解哪些连接是重要的。接下来,我们修剪不重要连接。最后原创 2020-06-12 09:39:21 · 1977 阅读 · 0 评论 -
tensorflow学习(一)
tensorflow学习(一)认识基本操作由于是2.0版本的,所以每次需要调用1.0版本的,因为网上大部分程序还是1.0版本写的,还是必须要会1.0版本的import tensorflow as tftf.compat.v1.disable_eager_execution()#创建一个常量m1 = tf.compat.v1.constant([[3,3]])m2 = tf.compat.v1.constant([[2],[3]])#创建一个矩阵乘法product = tf.compat.原创 2020-05-20 13:55:10 · 165 阅读 · 0 评论 -
神经网络学习(一)
神经网络学习(一)sigmoid函数sigmoid表达式:S(x)=11+e−xS(x)=\frac{1}{1+e^{-x}}S(x)=1+e−x1sigmoid函数求导:f(x)′=(11+e−x)′=e−x(1+e−x)2=1+e−x−1(1+e−x)2=11+e−x⋅(1−11+e−x)=f(x)(1−f(x))\begin{aligned}f(x)' &= \left( \frac{1}{1+e^{-x}} \right) ' \\&= \frac{e^{-x}}原创 2020-05-13 19:10:41 · 376 阅读 · 0 评论 -
隐马尔可夫模型学习
隐马尔可夫模型学习基本概念HMM五元组观测序列-O状态序列-I初始状态概率向量-π状态转移概率矩阵-A观测概率矩阵-BHMM三要素初始状态概率向量-π状态转移概率矩阵-A观测概率矩阵-B两个基本假设齐次马尔科夫性假设P(it∣it−1,ot−1,…,i1,o1)=P(it∣it−1), t=1,2,…,T\begin{aligned}P(i_t|i_{t-1},o_{t-1},\ldots ,i_1,o_1)=P(i_t原创 2020-05-19 09:15:50 · 251 阅读 · 0 评论