机器学习
不理不理不理左卫门
蒻蒻一枚
展开
-
吴恩达机器学习课程之一【机器学习的动机与应用】
课程地址:http://open.163.com/movie/2008/1/M/C/M6SGF6VB4_M6SGHFBMC.html 一、机器学习定义 1959 Arthur Samuel:赋予计算机学习能力的研究领域 1998 Tom Mitchell:对于一个程序,给他一个任务T和一个性能测量方法P,在经验E的影响下P对T的测量结果提高了,就说机器从E中学习...原创 2018-07-18 13:01:05 · 281 阅读 · 0 评论 -
机器学习实战之【k-近邻算法】
k-近邻算法(KNN)采用测量不同特征值之间的距离方法进行分类。 优点:精度高、对异常值不敏感、无数据输入假定。 缺点:计算复杂度高、空间复杂度高。 适用数据范围:数值型和标称型。描述:存在一个样本数据集合,样本集中每个数据都存在标签,即我们知道样本集中每一数据与所属分类的对应关系。输人没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算...原创 2018-07-10 19:00:05 · 212 阅读 · 0 评论 -
吴恩达机器学习课程之二【监督学习应用(线性回归,梯度下降,标准方程推导)】
课程地址:http://open.163.com/movie/2008/1/B/O/M6SGF6VB4_M6SGHJ9BO.html一、符号约定训练样本数目 m特征数 n输入变量/特征 x输出变量/目标 y样本 (x,y) 二、梯度下降1.批梯度下降对于仅一组样本而言对多组样本2.随机梯度下降每次只使用一组训练样本,用于样本数...原创 2018-07-25 15:01:46 · 277 阅读 · 0 评论 -
Tensorflow笔记之【神经网络的优化】
神经元模型用数学公式表示为,其中f为激活函数,模型示意图如下激活函数引入非线性激活因素,提高模型的表达力,常用的激活函数有relu、sigmoid、tanh其它概念神经网络的复杂度:可用神经网络的层数和神经网络中待优化参数个数表示;神经网路的层数:一般不计输入层,层数=n个隐藏层+1个输出层;神经网路待优化的参数:神经网络中所有参数w的个数+所有参数b的个数;...原创 2018-07-30 11:57:51 · 496 阅读 · 0 评论 -
Tensorflow笔记之【杂记】
图形化模块 matplot#导入模块import matplotlib.pyplot as plt#可视化数据点plt.scatter(x坐标,y坐标,c="颜色")plt.show()#收集网格坐标点#先将x和y方向的各点取出到xx和yy上,再两两配对收集到区域内所有的点xx,yy=np.mgrid[起:止:步长,起:止:步长]grip=np.c_[xx.ravel()...原创 2018-07-30 17:09:14 · 272 阅读 · 0 评论 -
Tensorflow笔记之【神经网络的模块化搭建】
生成数据集 (generateds.py)#coding:utf-8#0导入模块 ,生成模拟数据集import numpy as npimport matplotlib.pyplot as pltseed = 2 def generateds(): #基于seed产生随机数 rdm = np.random.RandomState(seed) #随机数返回300行2列的矩阵,表...原创 2018-07-30 18:06:24 · 605 阅读 · 0 评论 -
Tensorflow笔记之【神经网络的初步搭建】
一、基本概念基于Tensorflow的神经网络用张量表示数据,用计算图搭建神经网络,用会话执行计算图,优化线上的权重,得到模型。张量——多维数组参数——神经元线上的权重计算图——搭建神经网络的计算过程,只搭建不计算会话——执行计算图中的节点运算例:矩阵乘法 import tensorflow as tf #引入模块x = tf.constant([[1....原创 2018-07-27 18:15:48 · 256 阅读 · 0 评论