![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
瑾明达2号
Happy cooperation
展开
-
Word Hashing
英文的输入层通过Word Hashing方式处理,该方法基于字母的n-gram,主要作用是减少输入向量的维度。举例说明,假如现在有个词boy,开始和结束字符分别用#表示,那么输入就是(#boy#)。将词转化为字母n-gram的形式,如果设置n为3,那么就能得到(#bo,boy,oy#)三组数据,将这三组数据用n-gram的向量来表示。使用Word Hashing方法存在的问题是可能造成冲突。因为两个不同的词可能有相同的n-gram向量表示。下图是在不同的英语词典中分别使用2-gram和3-gram进行W转载 2021-07-08 16:05:28 · 1292 阅读 · 0 评论 -
ROC曲线理解
博主写的非常好:转自:https://www.jianshu.com/p/2ca96fce7e81转载 2021-07-02 17:38:39 · 116 阅读 · 0 评论 -
auc与gauc
博主写的非常好转自:https://blog.csdn.net/hnu2012/article/details/87892368在机器学习算法中,很多情况我们都是把auc当成最常用的一个评价指标,而auc反映整体样本间的排序能力,但是有时候auc这个指标可能并不能完全说明问题,有可能auc并不能真正反映模型的好坏,以CTR预估算法(推荐算法一般把这个作为一个很重要的指标)为例,把用户点击的样本当作正样本,没有点击的样本当作负样本,把这个任务当成一个二分类进行处理,最后模型输出的是样本是否被点击的概率转载 2021-07-02 17:32:11 · 381 阅读 · 0 评论 -
计算向量间相似度的常用方法
https://cloud.tencent.com/developer/article/1668762转载 2021-03-30 23:25:03 · 431 阅读 · 0 评论 -
GBDT算法原理以及实例理解
参考博客:https://blog.csdn.net/zpalyq110/article/details/79527653以及统计学习方法第五章回归树的生成,作者讲得非常好转载 2021-01-04 11:10:09 · 98 阅读 · 0 评论 -
《统计学习方法》C++实现kd tree
参考:https://www.cnblogs.com/90zeng/p/kdtree.html作者写的非常好,我只是改动成了我习惯的格式,稍许小改动,感谢作者#include <iostream>#include <vector>#include "kd_tree.hpp"using namespace std;int main(){ int data[6][2] = {{2,3},{5,4},{9,6},{4,7},{8,1},{7,2}}; v转载 2020-12-16 16:09:20 · 257 阅读 · 0 评论 -
《统计学习方法》感知机学习算法对偶形式C++实现
部分函数采用一般形式的文件中的函数https://blog.csdn.net/weixin_43087913/article/details/111244856main.cpp#include <iostream>#include <vector>#include <cmath>#include <string.h>#include "perceptron.h"#include "perceptron2.h"using namespace s原创 2020-12-16 10:30:32 · 70 阅读 · 0 评论 -
《统计学习方法》感知机学习算法原始形式C++实现
理论知识参考《统计学习方法》第二版第二章main.cpp#include <iostream>#include <vector>#include "perceptron.h"using namespace std;int main(){ vector<double> w; double b; vector<vector<double>> x; vector<int> y; do原创 2020-12-16 08:36:13 · 144 阅读 · 0 评论 -
Windows10 安装gym
命令行进入想安装的python解释器的目录下:前提是已经更改了源,或者其它办法.\python.exe -m pip install -U gym原创 2020-11-19 16:18:33 · 598 阅读 · 0 评论 -
tensorflow2.0实现一元线性回归
参考:https://cloud.tencent.com/developer/article/1538680看看就明白了from __future__ import absolute_import, division, print_functionimport tensorflow as tfimport numpy as npimport matplotlib.pyplot as plt# 学习率learning_rate = 0.01# 迭代次数training_steps =转载 2020-10-30 16:45:25 · 276 阅读 · 0 评论 -
机器学习实战 第一章练习题
如果见解,欢迎指教题目:如何定义机器学习?机器学习在哪些问题上表现突出,你能给出四种类型吗?什么是被标记的训练数据集?最常见的两种监督学习任务是什么?你能列举出四种常见的无监督学习任务吗?要让一个机器人在各种未知的地形中行走,你会使用什么类型的机器学习算法?要将顾客分成多组,你会使用什么类型的算法?你会将垃圾邮件检测的问题列为监督学习还是无监督学习?什么是在线学习系统?什么是核外学习?什么类型的学习算法依赖相似度来作出预测?模型参数与原创 2020-10-27 15:30:32 · 1110 阅读 · 0 评论 -
为什么说Relu是非线性激活函数,在大于0部分不是线性的吗?
https://blog.csdn.net/qq_32172681/article/details/101447443转载 2020-10-24 16:04:21 · 355 阅读 · 0 评论 -
k-近邻算法
参考书籍《机器学习实战》k-近邻算法(kNN)采用测量不同特征值之间的距离方法进行分类优点:精度高,对异常值不敏感,无数据输入假设缺点:计算复杂度高,空间复杂度高使用数据范围:数值型和标称型from numpy import *import operator# 创建数据集和标签def createDataSet(): group = array([[1.0, 1.1], [1.0, 1.0], [0, 0], [0, 0.1]]) labels = ['A', 'A',原创 2020-10-21 18:41:19 · 70 阅读 · 0 评论 -
sklearn之二元线性回归
from sklearn.linear_model import LinearRegressionimport numpy as npimport matplotlib.pyplot as pltfrom numpy import genfromtxtfrom sklearn.linear_model import LinearRegressionfrom sklearn import linear_model# 最小二乘法def compute_error(k, b, x, y):原创 2020-10-19 23:18:02 · 912 阅读 · 1 评论 -
梯度下降法求解一元线性回归
数据文件随便找一下就可以了,我用的是吴恩达课程中用的一元线性回归部分数据import numpy as npimport matplotlib.pyplot as pltdata = np.genfromtxt("data.csv", delimiter=",")x_data = data[:, 0]y_data = data[:, 1]plt.scatter(x_data, y_data)plt.show()# 学习率 learning rateLR = 0.001# 斜率K =原创 2020-10-18 21:47:39 · 295 阅读 · 0 评论