机器学习
handsome programmer
萌新博主,准备考博中
展开
-
【机器学习】loss函数的如何调整间隔,画的更漂亮?
今日,博主对loss函数分别做了三次调试原文:本函数共有4000次训练: def plot_cost(self): import matplotlib.pyplot as plt plt.plot(np.arange(len(self.cost_his)), self.cost_his) plt.ylabel('Cost') plt.xlabel('training steps') plt.show()加间隔原创 2020-09-29 16:11:36 · 641 阅读 · 0 评论 -
【写论文技巧】如何写一篇好论文?
1、养成一个良好的论文写作习惯是非常重要的。很多时候论文不是“写”出来的,论文的写作应该贯穿于日常的生活和工作当中,要养成一个有深度、有系统性思考的习惯,并且可以随时把论文的想法和试验结果记录下来,同时这些也是证明原创的证据,所以对一个问题的思考的深度决定了论文接收的概率。2、论文要极致精炼,要有准确的定位论文要极致精炼,要有准确的定位,阐述要尽量简洁,要有一个比较深度的洞见。 阐述要尽量简洁,要有一个比较深度的洞见。写论文的话,一篇论文只要有一个中心就可以了,超过一个中心的话就要写成两篇论文。如果一原创 2020-08-03 17:18:45 · 780 阅读 · 0 评论 -
【tensorboard】神经网络连接图的查看已保存的log图
每当运行成功一个神经网络之后如果你的代码中有这么一句,你就可以在tensorboard查看你的网络各成分的链接情况和输入输出。output_graph=True由于博主也经常忘记打开的步骤,所以在这里发一篇博客,记录一下。1、 如果你的网络运行成功的话,你的路径下会有一个logs文件夹,保存了网络构成图2、 确保的你的路径里没有中文,否则可能会打开失败3、 控制台打开Anaconda Prompt,而不是CMD,我用cmd打开tensorboard老是显示图表未输入变量我用的python开原创 2020-05-29 16:25:53 · 1465 阅读 · 1 评论 -
【tensorflow编写网络】盘点tensorflow里都有哪些常用函数
我们经常在看神经网络的python文件中,必要可少的用到tensorflow的库,无论是在深度学习还是机器学习。今天我们就按照下面的顺序盘点一下这些函数。本文持续更新,以后碰到常见的函数再更新。 tf.gradients tf.train.AdamOptimizer tf.multiply np.newaxis get_tensor_by_name tf.Variable tf.placeholder global_variable_initializer t原创 2020-05-14 12:15:35 · 520 阅读 · 0 评论 -
【机器学习代码入门】tensorflow库函数的调用(四)-----模型保存
Tensorflow模型是什么?当你已经训练好一个神经网络之后,你想要保存它,用于以后的使用,部署到产品里面去。所以,Tensorflow模型是什么?Tensorflow模型主要包含网络的设计或者图(graph),和我们已经训练好的网络参数的值。因此Tensorflow模型有两个主要的文件:这里A) Meta graph:这是一个保存完整Tensorflow graph的protocol buffer,比如说,所有的 variables, operations, collections等等。这个.原创 2020-05-09 18:10:29 · 388 阅读 · 0 评论 -
【机器学习代码入门】tensorflow库函数的调用(一)-----Session对话框
TensorFlow是谷歌基于DistBelief进行研发的第二代人工智能学习系统,其命名来源于本身的运行原理。Tensor(张量)意味着N维数组,Flow(流)意味着基于数据流图的计算,TensorFlow为张量从流图的一端流动到另一端计算过程。TensorFlow是将复杂的数据结构传输至人工智能神经网中进行分析和处理过程的系统。本篇将给大家讲解一下sess.run()///这个是让fetches节点动起来,告诉tensorflow,想要此节点的输出。///fetches 可以是list或者te原创 2020-05-09 14:12:33 · 436 阅读 · 0 评论 -
机器学习(三)防止语句歧义、平凡解、支持向量机
原创 2020-03-30 10:47:16 · 704 阅读 · 0 评论 -
机器学习(二)线性分类的最小平方误差法
半成品,近期会修改%%生成3个类别的数据(每个类别20个样本)% data=randn(2,60); %第1类均值 0,0% data(:,21:40)=data(:,21:40)+7; %第2类均值 7,7% data(1,41:60)=data(1,41:60)+7; %第3类均值 7,-7% data(2,41:60)=data(2,41:60)-7;% scatter(...原创 2020-03-20 14:39:33 · 2193 阅读 · 1 评论 -
【matlab】机器学习线性分类和随机梯度下降
让我们直接从代码开始,下面开始分布讲解【注】想要mnist请回复博主% z=+1,-1;% result=-0.3;负类 -1 分对了 +1 分错了 y*result>0% =0.4;正类 +1 分对了 -1 分错了% z*(w'*x)=z*w'*x=w'*z*x=w'*y %w1*x1+w2*x2+w3=0;%w'*x+b=0;%w'x...原创 2020-03-19 11:56:42 · 401 阅读 · 0 评论 -
卷积神经网络的进一步理解
最近又再次学习了一些卷积神经网络,有了一些深层的理解1、工具安装安装tensorflow和keras又花了一番功夫,找到了一篇还不错的安装博客,链接如下:Anaconda下安装Tensorflow和Keras的安装教程现在使用比较多值得注意的是我们使用anaconda进行安装,因为keras还需要这几个库的支持,然后再安装上面链接的那一篇博客安装。pip install numpy...原创 2020-01-16 11:12:58 · 292 阅读 · 0 评论 -
卷积神经网络图像的尺寸和参数计算
相信很多同学搞机器学习的时候,每一步卷积池化以后,对图片的尺寸和大小很迷茫,不知道如何计算的。这里,我给大家分享几个公式,帮助大家理解。不明白的欢迎在下方留言。1、卷积层(Conv Layer)的输出张量(图像)的大小定义如下:O=输出图像的尺寸。I=输入图像的尺寸。K=卷积层的核尺寸N=核数量S=移动步长P =填充数输出图像尺寸的计算公式如下:2、池化层(MaxPool ...原创 2020-01-15 10:36:41 · 4011 阅读 · 3 评论 -
问题归纳与要点整理------ALEX《深度卷积网络的图片分类》
alex的《ImageNet Classification with Deep Convolutional Neural Networks》相信大家都读过,博主也是刚刚入门,话不多说,一起来学习一下,分析一下文中出现的不一懂的部分。作者之前也弄过一篇ppt,但是还是没有真正理解点这里什么是局部响应归一化什么是隐藏层什么是特征向量文中的总体构架的理解什么是局部响应归一化正则化什么意...原创 2019-10-10 11:29:19 · 225 阅读 · 0 评论 -
机器学习第一阶段测试题(含答案)
原创 2019-10-08 19:32:19 · 2720 阅读 · 0 评论 -
机器学习-----车标识别
介绍什么是车标识别? 在学习 TensorFlow 的过程中,我们在开源社区中找到了一个名为 MobileNet 的模型,该模型能对图像进行分类。Google 发布的 tensorflow-for-poets 项目正好支持这个模型,我们希望能结合 TensorFlow 与 MobileNet,将其应用于分类不同车标的图片。同时以此作为基础,体验 ML/TF 中不同超参数对训练的影响。我们要...原创 2019-09-17 11:26:09 · 3830 阅读 · 5 评论 -
2019华为杯研究生数学建模(为期四天,持续更新,每天写感悟总结与经验)
1111原创 2019-09-19 15:06:09 · 4684 阅读 · 1 评论 -
曲线拟合、多元线性回归与梯度下降算法
曲线拟合梯度度下降算法博主最近在弄研究生数学建模,题目中给出了几万条数据,多个参数(X1,X2,X3,X4,X5,X6)影响着最终我们的恒定量Y。这就促使我们走向机器学习里的一元或者多元线性回归问题。博主对机器学习也是刚刚入门,对决策树和拟合不是太理解,就边学习边建模梯度下降法的基本思想可以类比为一个下山的过程。假设这样一个场景:一个人被困在山上,需要从山上下来(i.e. 找到山的最低点,...原创 2019-09-20 09:57:38 · 968 阅读 · 0 评论 -
python入门---日常经验分享
没课的一天,结合着师兄给的书,写一写日常学习的反思。西瓜书到手了,还不知道怎么学,好的公式233,没有python相关代码西瓜书的学习与建模后的反思1.隐马尔科夫模型隐马尔科夫模型是关于时序的概率模型,可用于标注问题的统计学问题模型,描述由一个隐藏的马尔科夫链生成不可观测的状态序列,再有各个状态生成一个观测而产生观测随机序列的过程。马尔科夫模型:因安德烈·马尔可夫(Andrey Ma...原创 2019-09-28 11:36:15 · 201 阅读 · 0 评论 -
windows7简单的卷积神经网络 cpu和gpu训练时间对比
我的电脑配置:cpu:i5-4210Hgpu:gtx 950M之前一个博主的代码,我拿来在自己的win7上进行分别的CPU和GPU卷积神经网络的速度测验。由于电脑默认的是CPU如果你想用GPU跑卷积神经网络,那么你需要在代码前段,加上几句import os os.environ["CUDA_VISIBLE_DEVICS"] = "0,2,3"当然了,首先你得有CUDA,安装如下...原创 2019-09-30 15:46:48 · 2076 阅读 · 0 评论 -
tensorflow报错-----Gpu版的tensorflow大坑
装了gpu版的tensorflow后,按照网上的教程调试了好久,该装的都装了,直至C盘都满了然后发现运行的时候报错查了一下发现问题如下因为tensorflow keras cuda cudnn需要同一的版本对应得,还得重新整理cuda和cudnn...原创 2019-10-03 10:02:01 · 721 阅读 · 0 评论 -
机器学习与python--------BP神经网络、多元线性回归模型实战(一)
博主研究机器学习有一段时间了,西瓜书也买了,感觉对这些专业术语还了解的不是很深入,所以趁着十月一假期,大家都在放松的时候,顺便赶超他们一下。今天就敲敲代码,实战一下。首先我们先敲一个一元线性回归一元线性回归涉及到最小二乘法和一元线性回归的优化问题。代码如下:import numpy as npimport matplotlib pyplot as pltdata = np.genfr...原创 2019-10-04 17:04:00 · 4222 阅读 · 3 评论 -
keras库里都有哪些功能?
实现线性回归 实现非线性回归 MNIST分类 交叉熵 Dropout 正则化 优化器 CNN用于手势识别 RNN先写这么多,有空我再展开叙述。原创 2019-10-04 17:12:50 · 628 阅读 · 0 评论 -
零基础机器学习-----tensorflow里池化Pooling详解
池化Poolingmax-poolingmean-Pooling(平均池化)stochastic-pooling(随机池化)如图最常见的是,步长为二的窗口我们一起来看图片中的左上角,1、8、7、1的最大值为8,故而,池化后的值,选取最大值为8同样道理,以下方的蓝色四个值,1、8、7、1,他们四个的平均值为4.25所以说,池化可以理解为进一步提取特征(在卷积之后),减少特征的数量...原创 2019-10-04 17:37:43 · 2745 阅读 · 1 评论 -
零基础机器学习-----tensorflow卷积与卷积核详解
与池化类似,也是需要步长的,图中步长为3卷积核就是滤波器用来提取图像的特征,滤波器不是人为设定的可以通过深度学习把卷积核训练出来通过大量训练,不断调整参数,得出最终的卷积核(BP算法)图中就是不同的卷积核对图像特征的提取。...原创 2019-10-04 20:14:45 · 527 阅读 · 0 评论 -
tensorflow入门实战----VGG16完成猫狗分类
其中模型和训练集需要提前下好的from keras.application.vgg16 import VGG16from keras.models import Sequentialfrom keras.layers import Conv2D,MaxPool2D,Activation,Dropout,Flatten,Densefrom keras.optimizers import SG...原创 2019-10-04 21:23:27 · 1057 阅读 · 0 评论 -
tensorflow入门---长短记忆网络LSTM
import tensorflow as tffrom tensorflow examples.tutorials.mnist import input_datamnist = input_data.read_data_sets("MNIST_data/",one_hot=true)n_inputs=28max_time=28lstm_size=100n_classes=10ba...原创 2019-10-04 22:07:56 · 240 阅读 · 0 评论 -
零基础tensorflow---RNN循环神经网络
x:输入h:隐藏层y:输出W、U:权值θ:激活函数颜色代表影响的强弱原创 2019-10-05 11:15:07 · 212 阅读 · 0 评论 -
卷积神经网络应用于MNIST数据集分类
下面这句图是不是很酷炫这里介绍几种常见有趣的神经网络的图原创 2019-10-05 20:15:30 · 525 阅读 · 0 评论 -
零基础学习tensorflow----模型的保存与载入(一)
废活不多说,直接上代码,代码是博主一个一个敲得,每一行都加了注释。如果你想真正学透一门学问,必须要求亲手实践它,正所谓,好记性不如烂笔头嘛。光看视频模型是没用的,敲代码才是王道。下面放一个最简单的tensorflow里的模型载入和保存。import tensorflow as tf from tensorflow.examples.tutprials.mnist import input...原创 2019-10-06 17:28:02 · 164 阅读 · 1 评论 -
零基础学习tensorflow----模型的保存与载入(二)
import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_datamnist = input_data.read_data_sets("MNIST_data",one_hot = True)batch_size = 64n_batch = mnist.train.num_example...原创 2019-10-08 11:28:31 · 166 阅读 · 0 评论 -
基于卷积神经网络的ImageNet分类器
本文中,作者训练了一个大型的深度卷积神经网络。作者将2010年ILSVRC挑战杯包含的120万高分辨率图像分类100种不同的类别。在测试数据方面,作者取得了远超过去最佳水平的效果,分别为17%和37.5%的top-5和top-1错误率。有着6000万参数和65万神经元的神经网络由5个部分连接Max池化层的卷积层和3个全连接层连带着1000路softmax组成。为了加快训练速度,作者采...原创 2019-04-12 11:00:17 · 1927 阅读 · 0 评论