机器学习
文章平均质量分 59
EastWR
hi 你好
展开
-
简易解说拉格朗日对偶(Lagrange duality)
请尊重原创知识,本人非常愿意与大家分享 转载请注明出处:http://www.cnblogs.com/90zeng/ 作者:博客园-太白路上的小混混引言:尝试用最简单易懂的描述解释清楚机器学习中会用到的拉格朗日对偶性知识,非科班出身,如有数学专业博友,望多提意见! 1.原始问题假设是定义在上的连续可微函数(为什么要求连续可微呢,后面再说,这里不用多想),考虑约转载 2016-04-22 19:23:27 · 18412 阅读 · 8 评论 -
分类算法-决策树之:id3 算法
原文:http://blog.csdn.net/leeshuheng/article/details/77777221 简述1.1 id3是一种基于决策树的分类算法,由J.Ross Quinlan在1986年开发。id3根据信息增益,运用自顶向下的贪心策略建立决策树。信息增益用于度量某个属性对样本集合分类的好坏程度。由于采用了信息增益,id3算法建立的决策树规转载 2016-04-16 14:24:51 · 1315 阅读 · 0 评论 -
TensorFlow基础name_scope与variable_scope
name_scope与variable_scopeimport tensorflow as tfOutline变量重用总结1.变量重用在Tensorflow中,直接重用变量会出错,必须指明 reuse。 变量重用实现的就是RNN中的参数共享操作。此处的 with 和其他处的不太一样,执行完后,里面所申请的变量还驻留在内存中,所以打印语句在外面也是可以实现的。# name_scope + Var原创 2017-11-29 19:46:16 · 335 阅读 · 0 评论 -
TensorBoard-01-网络结构
TensorBoard-01-网络结构官方的例子,for me, 一个小白,还是有点复杂,于是,我只要把它拆分一下,自我学习,大佬们就直接跳过把 本篇不进行训练,只搭建网络结构。并在 tensorboard 中展示本文打算搭建一个2个隐层的神经网络结构import tensorflow as tf# 函数准备def nn_layer(input_tensor, input_dim, output_原创 2017-11-29 21:11:41 · 269 阅读 · 0 评论 -
tf-idf使用-提取文章关键词-搜索文章
tf-idf 使用我们的目标是提取一篇文章中的关键词 or 给出关键词,在语料库中找到这组关键词最相近的文章。 两个目标要解决的问题是差不多的。今天用一种很简单却很有效的方法来解决这个问题, TF-IDF。在本文,我们选取第二种描述,即给出关键词,在语料库中找到与这组关键词最相近的文章。TF,Term Frequency 词频,表示词语在一篇文章中出现的频数。TF值越大,表示这个词在该篇文章中出现的原创 2017-12-06 15:05:54 · 2431 阅读 · 0 评论 -
静态与动态RNN函数比较
静态与动态RNN比较Tensorflow中提供了两种创建RNN结构的函数:tf.nn.static_rnntf.nn.dynamic_rnn两个函数的区别如下[1]:tf.nn.static_rnn creates an unrolled graph for a fixed RNN length. That means, if you call tf.nn.static_rnn with in原创 2017-11-27 21:16:01 · 2524 阅读 · 0 评论