![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 87
cmzz
山可移,海可填,日月不可追。个人主页https://xzhhengge.github.io/
展开
-
神经网络零碎知识
计算机对词语的理解,其实是计算机对空间及位置的理解-通过词向量,不同文章的都可以用词语的出现频率来表示颜色深的地方,数值越大,文章用向量来表示,投射到空间,他们就有了自己的位置,再空间分散出来,他们之间的距离越近,就越相似,或者根据其他的角度去分类,如夹角。在大量的文本训练中,一些频繁出现的词,如‘他’,‘在’,这些词就可以被计算机分到中心性的范畴训练词向量训练时,我们取一小段文本,取出这些词的向量表示,如下图:取“这是 段训”的整体向量来预测中间的“一”,窗口向前移动一格,预测“段”字。像原创 2021-04-16 14:47:04 · 216 阅读 · 0 评论 -
tensorflow2.0北大课程笔记(三)
循环核循环核按时间步展开循环计算层:向输出反向生长TF描述循环计算层TF描述循环计算层循环计算过程I随机生成了Why,Whh,Wxh,记忆体个数为3个第一次运算过后输出层RNN预测字母实现代码循环计算过程,连续输入四个字母,预测下一个字母记忆体第一次更新(输入b)第二次更新(输入c)第三次更新(输入d)第四次更新(输入e)最后输出jupyter代码实现embeding课程讲解LSTM表征长期记忆的细胞态Ct,等待存入长期记忆的候选态C原创 2020-10-30 17:04:24 · 318 阅读 · 0 评论 -
tensorflow2.0北大课程笔记(二)
第四章数据集构建数据增强图片增强ex:读取保存模型参数提取可视化acc/loss模型应用predict的输入是三维的卷积网络卷积计算单通道三通道感受野同样是55的图片经过两层33的卷积核作用和经过一层5*5的卷积核的感受野都是5,他们的提取能力是一样的,但是他们需要训练的参数不一样padding填充TF描述卷积层批标准化池化Dropout(舍弃)卷积是什么?卷积就是特征提取器,就是CBAPD,编写卷积神经网络的八股套原创 2020-10-29 21:03:19 · 187 阅读 · 0 评论 -
tensorflow2.0基础知识北大课程笔记(一)
北大Tensorflow2.0课程损失函数梯度下降反向传播张量numpy到Tensor随机数生成ex常用函数axis神经网络实现预备知识,常用函数激活函数损失函数与交叉熵结合欠拟合和过拟合L1和L2正则化ex神经网络参数优化器(优化更新参数)优化器SGDSGDM优化器Adagrad优化器RMSProp优化器Adam使用keras搭建神经网络(第三章内容)用Tensorflow API原创 2020-10-29 15:46:16 · 267 阅读 · 0 评论 -
tensorflow_serving的部署
重载模型:导入对应的模型,然后查看张量图import tensorflow as tfwith tf.Session() as sess: saver = tf.train.import_meta_graph('ckp-10000.meta') saver.restore(sess, 'ckp-10000') tensor_list = tf.get_default_...原创 2019-11-29 08:32:55 · 588 阅读 · 0 评论 -
基于京东手机评论的LSTM/CNN评论分析模型
数据用scrapy进行爬取,scrapy详细代码,数据集格式如下:评论+tab+标签,标签有5,3,2,1分别为【好评,中评,差评,非常差】(一个典型的多分类问题)scrapy存入数据库之后,利用pycharm的Database功能导入tsv文件(利用tab进行隔开)train_data.tsv一共4W条数据,标签均匀分布,test_data.tsv一共8K条,也是均匀分布。数据预处理分词...原创 2019-11-22 20:16:40 · 751 阅读 · 0 评论 -
tensorflow(神经网络)学习笔记(七)自动机器学习(AutoML)介绍(学习笔记)
神经网络结构搜索算法之一网络结构降低神经网络结构参数如下图,彩色框框为生成单个神经的参数,使用循环神经网络去生成卷积神经网络左边RNN可以生成LSTM的序列表达,然后把序列解析成网络表达结构,得到网络结构的表达,然后计算得到accuracy,然后反馈给RNN,然后再重新生成LSTM的序列表达。ex:单层网络结构参数卷积的高、宽、步长的高和宽,最后一个是chann...原创 2019-11-19 23:09:52 · 2752 阅读 · 0 评论 -
tensorflow(神经网络)学习笔记(六)对抗神经网络(DCGAN)实战(学习笔记)
利用MNIST数据集中的手写数字图像让神经网络学习到手写图片#%%"""1.Data provider a. Image data b. random vector2. Build compute graph a. generator b. discriminator c. DCGAN connect d and g ...原创 2019-11-19 21:02:30 · 301 阅读 · 0 评论 -
tensorflow(神经网络)学习笔记(六)对抗神经网络(GAN)介绍(笔记)
解决办法:对抗神经网路生成器和判别器,生成器用来生成图像(可以从文字生成图片,也可以图片生成图片),判别器用来判别该图像是否符合该描述对于这样的哲学,不能出现对方比另外一方层次高太多,会导致对方无法进一步地提升DCGAN中间为反卷积操作A为输入矩阵,W为卷积核,B为卷积输出B的第一个输出可以表示成卷积的操作可以看成是下面的矩阵的操作把输入矩阵转化为一...原创 2019-11-18 14:24:45 · 801 阅读 · 0 评论 -
tensorflow(神经网络)学习笔记(五)图像生成文本之实战(笔记)
模型下载代码:#%%# coding: utf-8 import tensorflow as tfimport osimport tarfileimport requests # inception模型下载地址inception_pretrain_model_url = 'http://download.tensorflow.org/models/image/imagenet...原创 2019-11-17 09:16:25 · 673 阅读 · 1 评论 -
tensorflow(神经网络)学习笔记(五)图像生成文本之模型介绍(笔记)
解决文本多次出现的方法解决短句子的问题取概率最高的词组成句子:显然句子的平滑度不是很好下面才是最优的的结果n为任意。ex:如下,n取4相关模型Multi-Modal RNNTable Projection 为文字的编码形式右下角的Fully Connected为提取图片的特征值Show and TellShow Attend and Tell...原创 2019-11-13 21:33:23 · 566 阅读 · 3 评论 -
tensorflow(神经网络)学习笔记(四)卷积图像风格转化(笔记)
卷积神经网络的应用有监督:图像分类,图像识别无监督:图像风格转化,图像修复,换脸,图像超清化,图像翻译,文字生成图像卷积神经网络学到了什么第一层神经网络学到了色彩第二层神经网络学到了边缘信息层次越深,神经网络学到的东西就越多,越来越抽象图像风格转换-V1内容特征:图像输入到CNN得到的某一层的激活值风格特征(图像共性):图像输入到CNN得到的某一层的激活值之...原创 2019-11-12 22:08:24 · 557 阅读 · 0 评论 -
tensorflow(神经网络)学习笔记(四)之基于LSTM和CNN的新闻分类模型(笔记)
文本处理的前提文本预处理:分词词语 -> id,将词语转化成id表示id矩阵: matrix -> [|V|, embed_size]词语A -> id(5)生成一个字典型的词表label -> id来表示数据集数据处理之后为生成词表:用于测试集中找不到训练集中的词汇...原创 2019-11-07 15:49:52 · 2381 阅读 · 5 评论 -
tensorflow(神经网络)学习笔记(三)之调参数实战(笔记)
tensorboard# 指定目录LOG_DIR = '.'run_label = 'run_vgg_tensorboard_fine_tune'run_dir = os.path.join(LOG_DIR, run_label)if not os.path.join(run_dir): os.mkdir(run_dir)train_log_dir = os.path.jo...原创 2019-11-03 15:29:25 · 317 阅读 · 0 评论 -
机器学习笔记
百度网盘配速播放videojs.getPlayers("video-player").html5player.tech_.setPlaybackRate(1.5)机器学习与深度学习的关系机器学习有监督学习算法(回归问题、分类问题)K最近邻算法线性模型朴素贝叶斯随机森林决策树核支持向量机深度学习有监督学习是通过现有训练数据集进行建模,再用模型对新的数据样本进行分类或...原创 2019-11-01 15:01:20 · 277 阅读 · 0 评论 -
tensorflow(神经网络)学习笔记(三)之调参数(笔记)
目录卷积网络调参调整学习率选择不同的激活函数网络初始化批归一化卷积神经网络调参α是对每一个神经元结构来说的.所以对于稀疏的问题来说就更明显了,很难学习到稀疏问题上的信息,然后将学习率α调小,但是又对于稀疏问题来说,还没有学习到足够的信息,使得下降梯度不够大,无法得到收敛变种手动设置各自的优缺点当x<0时,输出一直为0进入死循环....原创 2019-11-01 09:27:19 · 521 阅读 · 0 评论 -
tensorflow(神经网络)学习笔记(四)之RNN(笔记)
循环神经网络解决的问题:1对多:图片生成描述多对1:文本分类(文本情感分析)多对多:encoding-decoding,机器翻译实时多对多:视频解说简单的例子:(字符语言模型),一开始输入j,预测e,在此基础再预测e,再在前面的基础,预测出p,每一步的输出都依赖上一步的输入,多对一:前面所有输出都为0,最后一步再输出.多对多就每一步都输出反向传播正是因为后面的...原创 2019-10-30 21:11:54 · 419 阅读 · 0 评论 -
tensorflow(神经网络)学习笔记(二) 卷积神经网络进阶
卷积神经网络进阶AlexNet网络结构AlexNet的特点首次使用Relu2- GPU并行结构1,2,5卷积层后跟随max-pooling层两个全连接层上使用了dropoutdropout(连接输出时随机抛弃一定的连接)为什么用在全连接成上?因为全连接层参数占全部参数数目的大部分,容易过拟合VGGNet28%=(55-23*3)/25使用1通道,可以...原创 2019-10-28 20:56:05 · 190 阅读 · 0 评论 -
tensorflow(神经网络)学习笔记(一)模型重载与基本卷积
下面的代码进行tensorflow模型的保存with tf.Session() as sess: saver = tf.train.Saver() dir = os.path.dirname(os.path.realpath(__file__)) model_path = dir+'/3-2MNIST/model.ckpt' saver.save(sess=ses...原创 2019-10-23 09:10:30 · 365 阅读 · 0 评论 -
吴恩达机器学习笔记(四)16章-20章
第十六章 异常检测问题动机异常检测算法红色为数据集,绿色为测试集应用用户欺骗检测制造业检测计算机数据中心检测高斯分布(正态分布)构建检测算法...原创 2019-10-20 13:49:07 · 289 阅读 · 0 评论 -
吴恩达机器学习笔记(三)12-15章节
第十二章 机器学习系统设计ex:设计一个判断是否为垃圾邮件分类器,其中特征X可以选择是一个可能含有100个单词的列表,而y则是是否为垃圾邮件.如下图所示,X为100维,根据匹配邮件中的单词与固定的100个单词先比较,出现则是1,否则是0.不过在实际过程中,更多是选取常用10,00-50,000个单词,也就是说X的维度在10,000-50,000之间作者在讲课中提出了下图中解决办法,但是如何...原创 2019-09-28 17:45:42 · 657 阅读 · 0 评论 -
吴恩达机器学习笔记(二)8-11章节
第八章 正则化线性回归最左边为欠拟合,最右边则是过拟合.泛化指的是一个假设模型应用到新样本的能力logistic回归解决过拟合的问题.方法:第一个减少特征数量(1.人工选择,2.算法选择).第二个就是正则化正则化原理在最小化其均方误差代价函数中加入惩罚项如上图的1000θ3和1000θ4,加入惩罚项之后,在最小化的过程中,会使θ3和θ4缩小到0左右.使得拟合出来的图像更符合样本....原创 2019-09-18 14:17:43 · 218 阅读 · 0 评论 -
吴恩达机器学习笔记(一)2,5,7章节
逻辑回归和线性回归的不同在于假设方程的不同,逻辑回归的假设方程为线性回归的假设方程为第二章:单变线性回归卖房子例子找到两个最合适的θ0和θ1使得该直线符合数据样本。(选择代价函数可以算出θ0和θ1)一般在回归问题中使用的是平方差代价函数在线性回归中,我们要解决的是一个最小化问题(代价函数又称损失函数)在tensorflow代码中就是loss = tf.reduce_mean(tf.s...原创 2019-09-17 20:58:13 · 165 阅读 · 0 评论