- 博客(11)
- 资源 (5)
- 收藏
- 关注
原创 基于Huffman树的CBOW模型的理解
上面是从如下地址中截取的内容:https://www.zybuluo.com/Dounm/note/591752#mjx-eqn-eq4下面说下我对它的理解还是以“今天 我 和 小明 去 北京 玩” 这句为例输入层: “小明”的前后三个词向量,即首先要把这些词全部表示成向量投影层: 将这写词的向量求和,得到的结果就是:将投影层的向量输入到哈夫曼树中哈夫曼树怎么来的? 将语料库中词
2017-11-30 13:49:30 2074
原创 Word2vec之CBOW模型和Skip-gram模型形象解释
Word2vec中两个重要模型是:CBOW和Skip-gram模型这里主要讲下我本人对CBOW模型的理解,这是主要是举个例子简化下首先说下CBOW的三层结构:输入层,投影层(中间层),输出层假设语料库有10个词: 【今天,我,你,他,小明,玩,北京,去,和,好】现在有这样一句话:今天我和小明去北京玩很显然,对这个句子分词后应该是:今天 我 和 小明 去 北京 玩对于小明而言,选择他的前
2017-11-29 19:15:20 16601 6
转载 哈夫曼树
一,什么是哈夫曼树什么是哈夫曼树呢?哈夫曼树是一种带权路径长度最短的二叉树,也称为最优二叉树。下面用一幅图来说明。它们的带权路径长度分别为:图a: WPL=5*2+7*2+2*2+13*2=54图b: WPL=5*3+2*3+7*2+13*1=48可见,图b的带权路径长度较小,我们可以证明图b就是哈夫曼树(也称为最优二叉树)。回到顶部二,如何构建哈夫曼树一般可以按下面步骤构建:1,将所有左,右子树
2017-11-29 15:00:35 332
原创 使用argparse解析命令行参数
一个例子代码:文件名为:argparse_test.pyimport argparseparser = argparse.ArgumentParser()parser.add_argument('--para1', type=str, default='value1')parser.add_argument('--para2', type=str, default='value2')pa
2017-11-28 17:36:55 500
原创 Centos系统基于Docker安装tensorflow
要基于Docker安装tensorflow,当然首先要安装Docker了,下面先说安装Docker的步骤1. 首先卸载电脑上可能存在的老的版本,如果没有安装过可以不执行$ sudo yum remove docker \ docker-common \ docker-selinux \ d
2017-11-22 10:36:01 1335
转载 机器学习中的梯度下降法
在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(Gradient Descent)是最常采用的方法之一,另一种常用的方法是最小二乘法。这里就对梯度下降法做一个完整的总结。1. 梯度 在微积分里面,对多元函数的参数求∂偏导数,把求得的各个参数的偏导数以向量的形式写出来,就是梯度。比如函数f(x,y), 分别对x,y求偏导数,求得的梯度向量就是(∂f/∂x, ∂f/∂y)T,简称gr
2017-11-20 09:20:43 397
原创 expect以及rsync实现远程连接自动推送密码
有的时候,我们ssh登陆远程机器,或者scp从远程机器上拷贝文件,都要手动输入远程机器的 密码,如果我们的脚本要自动指定这些命令,如何实现自动推送密码?这就要用到except和spawn这里我用到了两个文件1. 文件1: upload_to_sohu.exp#/bin/bash/expect #特定标识#先预定义一些变量,比如远程机器的用户名,密码,ip,文件路径set user your
2017-11-17 16:22:28 2262
apache+php+mysql的嵌入式移植详细过程
2013-09-10
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人