机器学习
haizhiguang
这个作者很懒,什么都没留下…
展开
-
tensorflow 编码小结
tensorflow 编码小结重点搞清楚是怎么进行数据预处理的不同的组件数据预处理的方式和结果有什么不同比如: keras/pandas/tensorflow.feature_column/sklearn.processing/ 需要进一步搞清楚 不同数据预处理的结果和不同模型的输入数据是怎么链接的,数据格式是什么样的。 feature_column输入可以是原始特征的列名,或者是feature_column。初上手感觉feature_column设计的有点奇怪,不...原创 2020-12-22 10:12:42 · 206 阅读 · 0 评论 -
深度模型如何快速的返回结果
往往使用深度模型 采用知识蒸馏的方式,通过蒸馏的方式把知识蒸馏出来,把复杂的模型转换成简单模型原创 2020-06-08 20:07:45 · 170 阅读 · 0 评论 -
序列数据分析
s1 第一个序列s2 后一个序列s2 的均值 / s1的均值 衡量的是s2数据序列的增长幅度s2的方差 / s1的方差 衡量的是s2数据序列的波动大小原创 2020-02-10 21:12:30 · 356 阅读 · 0 评论 -
Java 调用python的方法
实现 java service 调用python的方法:1.使用python写一个http 的API2.如果对响应时间和并发有要求 建议用torando3.直接用gearman吧,把你的python脚本写在worker里,java写个client就可以调用和传数据了。原创 2016-12-26 17:36:32 · 556 阅读 · 0 评论 -
分别采用匿名类和lambda来实现spark API的接口
SparkConf conf = new SparkConf().setAppName("SparkSample").setMaster("local[*]");JavaSparkContext sc = new JavaSparkContext(conf);SQLContext sqlContext = new SQLContext(sc); JavaRDD lines = sc.te原创 2017-11-07 23:02:09 · 406 阅读 · 0 评论 -
CART分类与回归树
一、CART分类与回归树资料转载:http://dataunion.org/5771.htmlhttp://blog.sina.com.cn/s/blog_afe2af380102x020.html Classification And Regression Tree(CART)是决策树的一种,并且是非常重要的决策树,属于Top Ten Machine Learning A...转载 2018-09-10 11:30:04 · 27483 阅读 · 2 评论 -
分类模型中 label值相关的文章
分类模型中 label值相关的文章:Logistic regression:https://www.jianshu.com/p/08f78d09024a CNN cafe: 从0开始,连续整数https://blog.csdn.net/m0_37192554/article/details/84852421https://blog.csdn.net/u014381600/a...转载 2019-02-12 14:57:52 · 489 阅读 · 0 评论 -
神经网络 的 反向传播
原文详见:https://www.cnblogs.com/vipyoumay/p/9334961.html转载 2019-03-25 12:08:16 · 173 阅读 · 0 评论 -
理解 LSTM 相关
LSTM 经典教程 http://colah.github.io/posts/2015-08-Understanding-LSTMs/ unit 和 cell 的区别 详情 https://blog.csdn.net/notHeadache/article/details/8116426 CELL 如下图: UNIT: um_units=128 的话,就是每一个单元的输出...原创 2019-09-20 16:53:38 · 134 阅读 · 0 评论 -
Kmeans python 实现
kmeans算法的基本思路kmeans是把具有相似特征的事物聚集在一起。如何度量事物的相似性有距离度量的算法,比如欧式距离,编辑距离等,相似度的算法有余弦相似度,皮尔逊系数等等。kmeans算法描述(质心的个数就是要聚类的类数目,因为所有的样本最后都会聚集在这几个质心周围)随机生成k个质心计算每个样本距离质心的距离 样本原创 2016-11-20 16:30:11 · 1888 阅读 · 0 评论