- 博客(9)
- 收藏
- 关注
原创 面经总结
1、自我介绍2、项目介绍3、核函数有哪些?如何选择?核函数正定的意义?1)对于线性核函数,没有专门需要设置的参数2)对于多项式核函数,有三个参数。-d用来设置多项式核函数的最高此项次数,也就是公式中的d,默认值是3。-g用来设置核函数中的gamma参数设置,也就是公式中的第一个r(gamma),默认值是1/k(k是类别数)。-r用来设置核函数中的coef0,也就是公式中的第二个r,默认值是...
2020-05-04 23:14:17 220
原创 渣渣机器学习零碎笔记
渣渣机器学习零碎笔记支持向量机1、在线性可分情况下,训练数据集的样本点与分离超平面距离最近的样本点的实例称为:支持向量机2、线性可分支持向量机:给定线性可分训练数据集,通过间隔最大为目标,求解相应的凸二次规划问题,从而学习得到的最优分离超平面,此时解是唯一的3、算法一:线性可分支持向量机学习算法–最大间隔法:输入:线性可分训练数据集。输出:最大间隔分离超平面和分类决策函数。step1...
2020-05-03 09:15:37 396
原创 用np.polyfit对数据进行拟合
用np.polyfit对数据进行拟合np.ployfitnp.poly1dnp.ployfit数据组如下:import numpy as np#原始数据X=[ 1 ,2 ,3 ,4 ,5 ,6]Y=[ 2.6 ,3.4 ,4.7 ,5.5 ,6.47 ,7.8]进行拟合a = np.ployfit(x,y,n)#x与Y为需要拟合的数据,n为需要拟合的函数的阶数(次数);例子中...
2019-08-22 10:59:12 2396
原创 神经网络的核心——寻优Wi权重系数
为何核心是寻优Wi权重系数只有一组变量,便是权重系数Wi,我们所做的一切都是在寻找使误差Error最小的一组权重系数Wi,各种算法(例如梯度下降)都是用于寻优的工具,这些工具快与慢,适用于处理的数据类型都需要具体问题具体分析,但是这所有的最后都应回归到“最适合”的一组权重系数Wi中去,只有这样,构建的神经网络才能被认为优越,因为它从样本中学习到了它的最佳水平。一次迭代代码实现以下是利用梯度下...
2019-05-24 11:43:26 1895
原创 浅析神经网络(二)——利用PYTHON写Sigmoid函数
Sigmoid 函数为神经网络层中的激活函数,是对输入X产生逻辑分类的过程,以下为Sigmoid函数的图像以及在两个变量输入下对其的简单实现。import numpy as npdef sigmoid(x): # TODO: Implement sigmoid function return 1/(1 + np.exp(-x))inputs = np.array([0....
2019-05-24 10:42:46 15699
原创 优达学城——浅析神经网络
神经网络推理过程PerceptronWeightsActivation functionBiasPerceptronData, like test scores and grades, are fed into a network of interconnected nodes. These individual nodes are called perceptrons, or artifi...
2019-05-23 10:09:41 737 1
原创 TIME advantage by using Vectorization
文章目录Time advantage by using VectorizationExample in PythonConclusionTime advantage by using VectorizationVectorization reduce the calculation time comparing to for loop, especially when dealing with...
2019-04-24 10:57:28 148
原创 好意在成长中——机器学习心得(一)
近期刚阅读周志华的《机器学习》,下文仅对第一章进行总结。1.特征向量:feacher vector 2.机器学习形式化的定义:有经验E,关于任务T与评估性能指标P,若T在E下的P提高,则称程序对E进行了学习。 3.标签(label):关于示例结果的信息。 4.标记空间(label space):一般的,一个示例的所有标记集合。...
2018-08-09 17:08:20 234
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人