![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
函数or方法
永久的悔
基数转型学生一枚
展开
-
关于tf.contrib.rnn.BasicLSTMCell中的c_state与m_state的理解
class BasicRNNCell(RNNCell): """The most basic RNN cell.""" def __init__(self, num_units, input_size=None, activation=tanh, reuse=None): if input_size is not None: logging.warn("%s: The...原创 2019-07-29 08:54:01 · 769 阅读 · 0 评论 -
tf.nn.in_top_k
tf.nn.in_top_k(predictions,targets,k,name=None)tf.nn.in\_top\_k(predictions, targets, k, name=None)tf.nn.in_top_k(predictions,targets,k,name=None)#predictions#::你的预测结果(一般也就是你的网络输出值)大小是预测样本的数量乘以输出的维度。...原创 2019-07-19 17:22:25 · 133 阅读 · 0 评论 -
tf.random_uniform()
tf.random_uniform(shape,minval=0,maxval=None,dtype=tf.float32,seed=None,name=None)从均匀分布中输出随机值。生成的值在该[minval, maxval)范围内遵循均匀分布。下限 minval包含在范围内,而上限maxval被排除在外。对于浮点数,默认范围是[0,1)。对于整数,至少maxval必须明确地被指定。在整数...原创 2019-07-22 12:47:55 · 7640 阅读 · 1 评论 -
算法学习——分治法
分治法分治法的基本思想将一个规模为n的问题分解为k个规模较小的子问题,这些子问题相互独立,且与原问题相同。递归地解决这些子问题,然后将子问题的解合并得到原问题的解。框架#这里假设输入长度为n的数据A[0,1,2,...,n-1],函数Dac(p,q)求子问题A[p,p+1,...,q]的解,#对函数Dac()的首次调用为Dac(0,n-1)#C(p,q)为对问题的非递归求解,Small...原创 2019-08-14 10:56:30 · 166 阅读 · 0 评论 -
算法学习——贪心算法
贪心算法基本思想贪心算法是运用局部最佳策略以求达到全局最佳结果的一种方法。基本思想是,给定的输入数据为A[0],A[1],...,A[n−1]A[0],A[1],...,A[n-1]A[0],A[1],...,A[n−1],对解附有某些约束条件和表示最佳结构的目标函数,欲求满足约束条件的子集A[ik](n≥k≥1)A[i_k](n\ge k\ge 1)A[ik](n≥k≥1),叫做可用解;使...原创 2019-08-14 11:38:53 · 245 阅读 · 0 评论 -
算法学习——动态规划
动态规划基本思想动态规划与分治法类似,其基本思想也是将求解问题分解为若干个子问题,然后从这些子问题的解得到原问题的解。与动态规划不同的是,适用于动态规划求解的问题,经分解得到的子问题往往不是相互独立的。若用分治法解此类问题,则分类得到的子问题数目太多,以至于最后解决原问题需要耗费指数时间。动态规划的解决方法就是保存子问题的答案,当需要时再次找出已求得的答案,就可以避免大量重复计算。关键这点...原创 2019-08-14 15:35:34 · 178 阅读 · 0 评论 -
算法学习——回溯法
回溯法基本思路回溯法是一种在解空间搜索问题的解的方法。它在问题的解空间树中,按深度优先策略,从根节点出发搜索解空间树。算法搜索至解空间的任一节点时,先判断该节点是否包含问题的解。若不包含,则跳过对该节点为根的子树的搜索,逐层向其祖先节点回溯;否则进入该子树,继续按深度优先策略搜索。用回溯法求解问题的所有解时,要回溯到问题的根,且根节的所有子树都被搜索遍才结束。用回溯法求问题的一个解时,只要搜索...原创 2019-08-15 11:39:11 · 396 阅读 · 0 评论 -
python基本语法自学——生成器
python基本语法自学——生成器原创 2019-08-13 10:10:29 · 123 阅读 · 0 评论