![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
搬砖老头
仰望星空,脚踏实地!天道酬勤,机会总是留给有准备的人!
展开
-
批量修改文件后缀名
ren *.doc *.docx原创 2021-08-10 10:12:08 · 176 阅读 · 0 评论 -
python 多个工具包进行地点 人名等识别。
https://blog.csdn.net/ZJRN1027/article/details/103513861转载 2021-08-09 08:47:51 · 985 阅读 · 0 评论 -
bert 做句向量
https://github.com/terrifyzhao/bert-utils转载 2021-07-19 17:39:01 · 311 阅读 · 0 评论 -
关键词提取 新词发现
https://blog.csdn.net/hangzuxi8764/article/details/86901822转载 2021-07-18 20:54:12 · 216 阅读 · 0 评论 -
时间特征构造
https://blog.csdn.net/zhaodedong/article/details/103004322 时间特征构造转载 2021-07-08 15:47:39 · 122 阅读 · 0 评论 -
PySpark+深度语义模型DSSM+获取embedding
PySpark+深度语义模型DSSM+获取embeddinghttps://blog.csdn.net/qq632683582/article/details/116091510DeepFM原理以及DeepCTR代码实现https://blog.csdn.net/qq_38574975/article/details/108294570利用GBDT模型构造新特征https://blog.csdn.net/levy_cui/article/details/77165596...转载 2021-07-08 14:36:50 · 201 阅读 · 0 评论 -
kg-bert github地址,bert用于知识图谱
https://github.com/autoliuweijie/K-BERThttps://github.com/yao8839836/kg-bert/tree/master/data/umls转载 2021-07-06 15:45:24 · 649 阅读 · 0 评论 -
python 文本摘要 关键词
https://blog.csdn.net/mouday/article/details/89469583转载 2021-07-06 11:17:15 · 157 阅读 · 0 评论 -
pytorch 使用bert 做新闻分类
https://zhuanlan.zhihu.com/p/130913995转载 2021-07-05 16:46:29 · 450 阅读 · 0 评论 -
python item2vec做召回
https://blog.csdn.net/qq_26645205/article/details/81000873https://github.com/lujiaying/MovieTaster-Open/blob/master/utils/process.py github地址转载 2021-06-28 14:50:43 · 412 阅读 · 0 评论 -
新闻深度推荐
https://blog.csdn.net/weixin_35154281/article/details/112848121转载 2021-06-25 14:29:14 · 113 阅读 · 0 评论 -
L0,L1,L2 无穷范数
L0范数:向量中非零元素的个数L1范数:向量中各个元素绝对值的和L2范数:向量中元素平方的和,再开方;即向量的模长无穷范数:向量中各个元素绝对值的最大值原创 2021-06-22 08:48:56 · 2553 阅读 · 0 评论 -
fasttext python版
https://www.pythonf.cn/read/151112fasttext python实现转载 2021-06-21 14:41:59 · 163 阅读 · 0 评论 -
python知识图谱构建
https://www.jianshu.com/p/1c85939d3a73转载 2021-06-15 21:54:26 · 505 阅读 · 0 评论 -
为什么需要归一化特征
机器学习-数据归一化及哪些算法需要归一化一、数据为什么需要归一化处理?归一化的目的是处理不同规模和量纲的数据,使其缩放到相同的数据区间和范围,以减少规模、特征、分布差异对模型的影响。方法:1. 极差变换法2. 0均值标准化(Z-score方法)1. Max-Min(线性归一化)Max-Min归一化是对原始数据进行线性变化,利用取值的最大值和最小值将原始数据转换为某一范围的数据缺点:归一化过程与最大值和最小值有关,容易受到极端值的影响。会一定程度破坏原有数据的结构应转载 2021-05-31 15:01:18 · 2718 阅读 · 0 评论 -
2021-05-01
https://zhuanlan.zhihu.com/p/80461294deepFM keras实现转载 2021-05-01 23:05:13 · 84 阅读 · 0 评论 -
2021-04-30
https://blog.csdn.net/qq_14845119/article/details/80787753 损失函数大综合转载 2021-04-30 17:48:23 · 93 阅读 · 1 评论 -
贝叶斯实战
http://blog.csdn.net/longxinchen_ml/article/details/50629613 贝叶斯实战转载 2017-08-17 22:10:35 · 188 阅读 · 0 评论 -
模型融合
http://blog.csdn.net/ZengHaihong/article/details/53247100http://blog.csdn.net/q383700092/article/details/53557410http://www.jianshu.com/p/035a442fea1e转载 2017-11-25 15:23:39 · 409 阅读 · 0 评论 -
EM算法
https://blog.csdn.net/google19890102/article/details/46431715转载 2018-05-13 15:36:18 · 218 阅读 · 0 评论 -
词向量化的经典说法
https://www.zhihu.com/question/44832436/answer/266068967 词向量化转载 2018-05-25 08:52:40 · 1370 阅读 · 0 评论 -
LSTM结构连接解析
转自:https://blog.csdn.net/shenxiaoming77/article/details/79390595转载 2018-05-15 17:39:52 · 4386 阅读 · 0 评论 -
vgg结构说明
https://www.sohu.com/a/241338315_787107 vgg结构说明转载 2018-12-23 09:31:06 · 1315 阅读 · 0 评论 -
linux毫秒
https://blog.csdn.net/BeautifulGrils/article/details/79711966 linux下的毫秒。原创 2019-02-26 22:30:05 · 880 阅读 · 0 评论 -
波士顿房价预测--结合产品企划
http://blog.csdn.net/baixiaozhe/article/details/54409764 波士顿房价 sklearnhttp://blog.csdn.net/baixiaozhe/article/details/54409764 波士顿房价的sklearn学习转载 2017-10-20 09:53:08 · 333 阅读 · 0 评论 -
逻辑回归实现
http://blog.csdn.net/qq_22125259/article/details/49388747 逻辑回归实现转载 2017-09-20 19:27:28 · 200 阅读 · 0 评论 -
逻辑回归
http://blog.csdn.net/qq_22125259/article/details/49388747 java实现的逻辑回归和其他的算法代码转载 2017-09-20 19:01:45 · 182 阅读 · 0 评论 -
softmax的理解
http://blog.csdn.net/hejunqing14/article/details/48980321 http://blog.csdn.net/hungryof/article/details/50395062转载 2017-08-21 15:25:48 · 312 阅读 · 0 评论 -
Xgboost的多分类
XGBoost解决多分类问题 XGBoost官方给的二分类问题的例子是区别蘑菇有无毒,数据集和代码都可以在xgboost中的demo文件夹对应找到,我是用的Anaconda安装的XGBoost,实现起来比较容易。唯一的梗就是在终端中运行所给命令: ../../xgboost mushroom.conf 时会报错,是路径设置的问题,所以我干脆把xgboost文件夹下的xgboos转载 2017-08-06 14:29:45 · 13312 阅读 · 0 评论 -
神经网络后向传播
http://blog.csdn.net/yunpiao123456/article/details/52526907 神经网络的后向传播转载 2017-08-18 19:43:22 · 274 阅读 · 0 评论 -
SMO算法
本文力求简化SMO的算法思想,毕竟自己理解有限,无奈还是要拿一堆公式推来推去,但是静下心看完本篇并随手推导,你会迎刃而解的。推荐参看SMO原文中的伪代码。1.SMO概念上一篇博客已经详细介绍了SVM原理,为了方便求解,把原始最优化问题转化成了其对偶问题,因为对偶问题是一个凸二次规划问题,这样的凸二次规划问题具有全局最优解,如下: 其中(xi,yi)表示训练样本数据转载 2017-08-10 22:48:02 · 866 阅读 · 0 评论 -
损失函数
http://blog.csdn.net/shenxiaoming77/article/details/51614601 机器学习损失函数转载 2017-08-17 22:14:32 · 200 阅读 · 0 评论 -
特征工程--特征离散化的意义
连续特征的离散化:在什么情况下将连续的特征离散化之后可以获得更好的效果?Q:CTR预估,发现CTR预估一般都是用LR,而且特征都是离散的。为什么一定要用离散特征呢?这样做的好处在哪里?A:在工业界,很少直接将连续值作为逻辑回归模型的特征输入,而是将连续特征离散化为一系列0、1特征交给逻辑回归模型,这样做的优势有以下几点:0、 离散特征的增加和减少都很容易,易于模型的转载 2017-08-17 22:03:43 · 3011 阅读 · 0 评论 -
特征选择,处理
http://blog.csdn.net/jr_lu/article/details/52947455 链接转载 2017-08-17 21:41:16 · 239 阅读 · 0 评论 -
SVM多分类思路
SVM实现多分类的三种方案SVM本身是一个二值分类器 SVM算法最初是为二值分类问题设计的,当处理多类问题时,就需要构造合适的多类分类器。 目前,构造SVM多类分类器的方法主要有两类 (1)直接法,直接在目标函数上进行修改,将多个分类面的参数求解合并到一个最优化问题中,通过求解该最优化问题“一次性”实现多类分类。这种方法看似简单,但其计算复杂度比较高,实现起来原创 2017-08-17 10:23:25 · 1104 阅读 · 0 评论 -
数据预处理
标准化z-score标准化经过去均值来对某个特征进行中心化,再通过除以非常量特征(non-constant features)的标准差进行缩放。class preprocessing.StandardScaler(copy=True, with_mean=True, with_std=True):标准正态分布化的类属性:scale_:ndarray,缩放比例mean_:转载 2017-08-17 10:08:35 · 598 阅读 · 0 评论 -
PCA
http://www.cnblogs.com/harrygogo/p/4675592.html pca原理转载 2017-08-09 09:04:10 · 262 阅读 · 0 评论 -
回归树和分类树的区别
分类树 以C4.5分类树为例,C4.5分类树在每次分枝时,是穷举每一个feature的每一个阈值,找到使得按照feature阈值分成的两个分枝的熵最大的阈值(熵最大的概念可理解成尽可能每个分枝的男女比例都远离1:1),按照该标准分枝得到两个新节点,用同样方法继续分枝直到所有人都被分入性别唯一的叶子节点,或达到预设的终止条件,若最终叶子节点中的性别不唯一,则以多数人的性别作为该叶子节点的性别。转载 2017-08-21 16:01:05 · 1766 阅读 · 0 评论 -
sklearn中的相关模性算法的调参
http://blog.csdn.net/xiaodongxiexie/article/details/70667101?locationNum=7&fps=1 SVM调参http://blog.csdn.net/sb19931201/article/details/52577592 xgboost调参http://blog.csdn.net/sun_she翻译 2017-08-15 21:00:01 · 276 阅读 · 0 评论 -
sklearn中文api翻译
http://blog.csdn.net/u010859707/article/details/74995531?locationNum=2&fps=1 中文翻译博客地址转载 2017-08-15 21:38:05 · 591 阅读 · 0 评论